Skip to main contentSkip to footer
Nehmen Sie Kontakt mit unseren Experten auf
Datenschutz

KI-Souveränität: Kontrolle über Intelligenz in einer fragmentierten Welt (Teil 4)

06.01.2026 von Sebastian Ohlig

KI-generiertes Bild, das eine Frau in einer nachdenklichen Pose zeigt, umgeben von vielen KI- und IT-bezogenen Symbolen und Grafiken.

In den ersten drei Teilen dieser Serie haben wir IT-Souveränität von Grund auf untersucht: den rechtlichen und geopolitischen Kontext, die Ebene der physischen Infrastruktur und die strategische Rolle des Cloud Computing. Jede Ebene offenbarte dieselbe grundlegende Herausforderung: Wie kann man von globalen digitalen Ökosystemen profitieren, ohne die Kontrolle abzugeben?

Nirgendwo ist diese Herausforderung so offensichtlich wie im Bereich der künstlichen Intelligenz.

KI hat sich rasch von einem experimentellen Werkzeug zu einem zentralen Treiber für Automatisierung, Analytik und Wettbewerbsdifferenzierung entwickelt. Da Unternehmen KI zunehmend in ihre Arbeitsabläufe und Entscheidungsprozesse integrieren, stellt sich auf Vorstandsebene eine neue Frage: Wie souverän ist unsere KI?

Die Souveränität der KI ist nicht mehr nur ein theoretisches oder politisch motiviertes Konzept. Sie wird zu einem praktischen Anliegen für Unternehmen, die auf sensible Daten angewiesen sind, in verschiedenen Rechtsräumen tätig sind und zunehmend von KI-Plattformen abhängig sind, die ausserhalb ihres rechtlichen Einflussbereichs kontrolliert werden.

Was KI-Souveränität wirklich bedeutet

KI-Souveränität ist die Fähigkeit einer Organisation, KI-Systeme unter den Rechtsordnungen, Kontrollen und Governance-Rahmenbedingungen ihrer Wahl zu entwickeln, einzusetzen und zu betreiben.

In der Praxis dreht sich dabei alles um drei eng miteinander verbundene Elemente:

  • Datenlokalität und -herkunft: Wo werden Trainings- und Inferenzdaten gespeichert und verarbeitet, und können Herkunft und Zusammensetzung der Trainingsdaten unter den geltenden rechtlichen und regulatorischen Rahmenbedingungen geregelt, erklärt und verteidigt werden?
  • Modellkontrolle: Wer hostet, betreibt und kann KI-Modelle modifizieren?
  • Operative Unabhängigkeit: Bleiben KI-Fähigkeiten unter regulatorischem oder geopolitischem Druck verfügbar, konform und überprüfbar?

Souveräne KI bedeutet nicht, globale Innovationen abzulehnen oder alle Fähigkeiten intern neu aufzubauen. Vielmehr geht es darum, sicherzustellen, dass die kritischsten Aspekte der KI – Daten, Modelle und Entscheidungslogik – nicht unerwünschten Zugriffen aus dem Ausland, undurchsichtiger Governance oder externen Störungen ausgesetzt sind.

Warum KI zu einem Brennpunkt der Souveränität geworden ist

KI birgt Souveränitätsrisiken, die sich grundlegend von denen herkömmlicher IT-Systeme unterscheiden.

Datenresidenz und Lerneffekte

Im Gegensatz zu klassischer Software können KI-Systeme aus Daten lernen. Wenn Unternehmen Daten an externe KI-Plattformen senden – insbesondere über APIs –, hängt es vom Anbieter, der Serviceebene und den vertraglichen Kontrollen ab, wie diese Daten protokolliert, gespeichert oder wiederverwendet werden.

Zwar bieten viele Anbieter mittlerweile Sicherheitsvorkehrungen und Optionen zur Datenresidenz auf Unternehmensniveau an, doch sind die Unternehmen weiterhin dafür verantwortlich, zu überprüfen, ob die Datenverarbeitung den regulatorischen und internen Governance-Anforderungen entspricht. Die begrenzte Transparenz der KI-Verarbeitungsprozesse von Drittanbietern kann eine unabhängige Überprüfung und Auditierbarkeit erschweren, insbesondere bei regulierten Daten.

Konzentration der KI-Kapazitäten

Fortschrittliche KI-Modelle und die für ihren Betrieb erforderliche Infrastruktur konzentrieren sich auf eine kleine Anzahl globaler Anbieter. Diese Anbieter unterliegen nationalen Rechtsordnungen, die einen extraterritorialen Zugriff auf Daten ermöglichen oder Beschränkungen für den Export oder die Nutzung fortschrittlicher KI-Technologien auferlegen können.

Da KI zunehmend in zentrale Geschäftsprozesse eingebettet wird, führt diese Konzentration zu einer strategischen Abhängigkeit. Wenn der Zugriff auf eine ausländische KI-Plattform aufgrund von regulatorischen Änderungen, Sanktionen oder Änderungen der Anbieterrichtlinien eingeschränkt wird, können wichtige Arbeitsabläufe ohne Vorwarnung beeinträchtigt werden.

Der regulatorische Druck nimmt zu

Die Regulierungsbehörden behandeln KI zunehmend als einen Bereich, der einer expliziten Regulierung bedarf. Neue Rahmenwerke verfolgen einen risikobasierten Ansatz und sehen strengere Auflagen vor, wenn KI-Systeme regulierte Entscheidungen beeinflussen, personenbezogene Daten verarbeiten oder Grundrechte beeinträchtigen.

Unternehmen bleiben für die Einhaltung der Vorschriften verantwortlich, auch wenn die KI-Funktionen von Dritten bereitgestellt werden. In diesem Zusammenhang wird Souveränität zu einer Voraussetzung für die Rechenschaftspflicht und ist keine optionale architektonische Präferenz mehr.

Im Juni 2024 verabschiedete die Europäische Union (EU) die weltweit ersten Vorschriften für KI. Das Gesetz über künstliche Intelligenz wird 24 Monate nach seinem Inkrafttreten vollständig anwendbar sein. Diese KI-Verordnung legt einen gemeinsamen Rahmen für die Nutzung und Bereitstellung von KI-Systemen in der EU fest. Das neue Gesetz bietet eine Klassifizierung für KI-Systeme mit unterschiedlichen Anforderungen und Verpflichtungen, die auf einen risikobasierten Ansatz zugeschnitten sind. Einige KI-Systeme, die „inakzeptable“ Risiken darstellen, sind verboten. Eine Vielzahl von „risikoreichen“ KI-Systemen, die sich nachteilig auf die Gesundheit, Sicherheit oder Grundrechte von Menschen auswirken können, sind zugelassen, unterliegen jedoch einer Reihe von Anforderungen und Verpflichtungen, um Zugang zum EU-Markt zu erhalten. KI-Systeme, die aufgrund ihrer mangelnden Transparenz nur begrenzte Risiken bergen, unterliegen Informations- und Transparenzanforderungen, während KI-Systeme, die nur ein minimales Risiko für Menschen darstellen, keinen weiteren Verpflichtungen unterliegen. Die Verordnung enthält auch spezifische Vorschriften für allgemeine KI-Modelle (GPAI) und legt strengere Anforderungen für GPAI-Modelle mit „hoher Wirkungsfähigkeit“ fest, die ein systemisches Risiko darstellen und erhebliche Auswirkungen auf den Binnenmarkt haben könnten.

Die EU wird eine sichere, erweiterbare und sich ständig weiterentwickelnde Agentic-Bewertungsinfrastruktur einrichten, um allgemeine KI-Systeme (GPAI) im Rahmen des EU-KI-Gesetzes zu bewerten.

Die Risiken nicht-souveräner KI-Modelle

Unternehmen, die stark auf extern betriebene KI-Plattformen angewiesen sind, sind mit mehreren miteinander verbundenen Risiken konfrontiert.

Rechtliche Risiken

KI-Dienste, die von Anbietern betrieben werden, die ausländischen Rechtsvorschriften unterliegen, können zur Offenlegung von Daten oder Betriebsinformationen verpflichtet werden, unabhängig davon, wo die Verarbeitung stattfindet.

Betriebliche Abhängigkeit

KI, die in geschäftskritische Arbeitsabläufe eingebettet ist, kann zu einem Single Point of Failure werden, wenn der Zugriff aufgrund externer Entscheidungen, die ausserhalb der Kontrolle des Unternehmens liegen, gedrosselt, geändert oder entzogen wird.

Unsicherheit hinsichtlich der Compliance

Der Nachweis der Einhaltung gesetzlicher Vorschriften wird schwierig, wenn Trainingsprozesse, Datenaufbewahrungspraktiken oder Modellverhalten nicht klar erklärt, dokumentiert oder geregelt werden können.

Strategische Informationslecks

Sensible Daten, die in KI-Eingabeaufforderungen, Feinabstimmungen oder Schlussfolgerungen verwendet werden, können unbeabsichtigt geistiges Eigentum, Geschäftslogik oder Wettbewerbsinformationen offenlegen.

Diese Risiken nehmen zu, wenn KI vom Experimentierstadium in zentrale Unternehmenssysteme übergeht.

Strategien zur Erlangung von KI-Souveränität

KI-Souveränität erfordert nicht den Verzicht auf moderne KI-Fähigkeiten. Sie erfordert architektonische und governancebezogene Entscheidungen, die die Kontrolle dort bewahren, wo sie am wichtigsten ist.

1. Lokales Training und lokale Inferenz

Einer der direktesten Ansätze besteht darin, KI-Workloads auf einer vom Unternehmen kontrollierten Infrastruktur oder in vertrauenswürdigen regionalen Umgebungen auszuführen. Trainingsdaten und Inferenz bleiben lokal, sodass sensible Informationen nicht aus genehmigten Gerichtsbarkeiten gelangen.

Dieser Ansatz ist besonders relevant für regulierte Branchen und Anwendungsfälle mit hoher Auswirkung.

2. Föderiertes Lernen und verteilte KI

Föderiertes Lernen ermöglicht das Training von KI-Modellen an mehreren Standorten, ohne dass die Rohdaten zentralisiert werden müssen. Jeder Standort trainiert lokal, und nur Modellaktualisierungen – nicht die zugrunde liegenden Daten – werden aggregiert.

Für multinationale Unternehmen ermöglicht dies die Schaffung gemeinsamer Intelligenz unter Berücksichtigung lokaler Datenresidenz- und Souveränitätsbeschränkungen.

3. Open-Source- und selbst gehostete Modelle

Viele Unternehmen setzen zunehmend auf Open-Source- oder intern entwickelte KI-Modelle, die intern gehostet und verwaltet werden können. Diese Modelle mögen zwar hinter den neuesten proprietären Angeboten zurückbleiben, bieten jedoch Transparenz, Überprüfbarkeit und vollständige Kontrolle über die Datennutzung.

Bei sensiblen Arbeitsabläufen überwiegen die Vorteile der Souveränität oft die marginalen Leistungsunterschiede. 4. Regionale KI-Cluster und souveräne Infrastruktur

Unternehmen investieren auch in regionale KI-Cluster – entweder vor Ort oder über vertrauenswürdige Anbieter –, die sicherstellen, dass KI-Rechenleistung, Speicherung und Governance unter lokaler Kontrolle bleiben. Dies entspricht früheren souveränen Cloud-Strategien, ist jedoch für die Rechenanforderungen der KI optimiert.

5. Sicherheitsvorkehrungen bei der Nutzung externer KI-Plattformen

Wo ausländische KI-Dienste weiterhin notwendig sind, verlangen Unternehmen zunehmend:

  • Explizite Verpflichtungen hinsichtlich Datenhoheit und -verarbeitung
  • Klare Beschränkungen für die Speicherung und Wiederverwendung von Daten
  • Bereitstellungsmodelle, die Inferenz oder Feinabstimmung innerhalb von kundengesteuerten Umgebungen ermöglichen

Diese Massnahmen beseitigen zwar nicht das Souveränitätsrisiko, reduzieren es jedoch erheblich.

Wann KI-Souveränität entscheidend ist – und wann sie optional ist

Die Souveränität der KI ist entscheidend, wenn:

  • KI personenbezogene oder regulierte Daten verarbeitet
  • Die Ergebnisse regulierte oder sicherheitskritische Entscheidungen beeinflussen
  • Modelle proprietäre Geschäftslogik oder strategische Erkenntnisse enthalten
  • Die Betriebskontinuität unter allen Umständen gewährleistet sein muss

Die Souveränität der KI ist weniger streng, wenn:

  • Die Daten öffentlich, anonymisiert oder risikoarm sind
  • KI für allgemeine Produktivitäts- oder explorative Analysen eingesetzt wird
  • kurzfristige Experimente gegenüber langfristigen Abhängigkeitsrisiken überwiegen

Wie bei Infrastruktur und Cloud ist auch hier der effektivste Ansatz die Klassifizierung der Arbeitslasten – wobei Souveränitätskontrollen proportional zu den geschäftlichen und regulatorischen Risiken angewendet werden.

Akzeptable ausländische Abhängigkeiten in der KI

Echte KI-Souveränität erfordert keine technologische Isolation.

Viele Unternehmen akzeptieren:

  • die Verwendung von im Ausland entwickelten Modellen, die lokal bereitgestellt und betrieben werden,
  • die Nutzung globaler KI-Forschung und Open-Source-Innovationen,
  • die Anmietung ausländischer Rechenkapazitäten für verschlüsselte oder synthetische Workloads.

Entscheidend ist nicht, wo die Innovation ihren Ursprung hat, sondern wer die Daten, Modelle und Entscheidungen zur Laufzeit kontrolliert.

Die Souveränität bleibt gewahrt, wenn Unternehmen die Fähigkeit behalten, zu regeln, zu prüfen und auszusteigen – ohne in undurchsichtige oder unkontrollierbare Abhängigkeiten geraten zu sein.

Die entscheidende Frage

KI entwickelt sich rasch von einem unterstützenden Werkzeug zu einer Entscheidungsmaschine. Mit zunehmendem Einfluss wächst auch die Bedeutung der Kontrolle.

Wenn der Zugriff auf Ihre KI-Systeme durch eine externe Behörde eingeschränkt, überprüft oder entzogen würde, würde Ihr Unternehmen dann noch wie vorgesehen funktionieren?

Die Beantwortung dieser Frage ist nicht mehr optional. Sie ist von zentraler Bedeutung für die Entwicklung resilienter, konformer und zukunftssicherer IT-Strategien für Unternehmen.

Was kommt als Nächstes?

Im nächsten Teil dieser Reihe werden wir uns mit der Souveränität von Cybersicherheit befassen – wo die Kontrolle über Identität, Bedrohungsinformationen und Incident Response darüber entscheidet, ob Unternehmen sich in einer zunehmend fragmentierten digitalen Landschaft wirklich verteidigen können.