LLM-Selbsthosting und KI-Souveränität
Daten und Modelle mit selbstgehosteten LLMs kontrollieren
Selbstgehostete LLMs ermöglichen die Kontrolle über Daten, Modelle und Inferenz – ein praktischer Weg zur AI-Souveränität für Teams, Unternehmen und Nationen.
Für eine praktische Vergleichsanalyse zwischen selbstgehosteter und Cloud-LLM-Infrastruktur – Ollama, vLLM, Docker Model Runner, LocalAI und Cloud-Anbieter – siehe LLM-Hosting: Lokal, Selbstgehostet & Cloud-Infrastruktur Vergleich. Hier: Was AI-Souveränität ist, welche Aspekte und Methoden verwendet werden, um sie zu bauen, wie LLM-Selbsthosting hineinpasst, und wie Länder das Problem angehen.

Was ist AI-Souveränität?
AI-Souveränität (oder „sovereign AI“) ist die Idee, dass ein Land, eine Organisation oder eine Person AI-Systeme nach eigenen Bedingungen entwickeln, betreiben und kontrollieren kann – im Einklang mit eigenen Gesetzen, Werten und Sicherheitsbedürfnissen – anstatt vollständig auf fremde oder undurchsichtige Anbieter zu vertrauen.
Es geht um Kontrolle über die AI-Infrastruktur, Daten und Modelle: die Ausweitung der Daten-Souveränität (wo Daten gespeichert und verarbeitet werden) auf die gesamte AI-Stack – Trainingsdaten, Modelle, Rechenleistung und Governance. Typische Ziele sind: sensible Daten und AI-Operationen innerhalb eines gewählten rechtlichen Jurisdiktionen (z. B. EU oder Australien) zu behalten; die Einhaltung lokaler Regeln zu Sicherheit, Datenschutz und AI-Risiken (GDPR, EU AI Act, nationale Sicherheit) sicherzustellen; und eine übermäßige Abhängigkeit von einer kleinen Anzahl fremder Cloud- oder AI-Anbieter zu vermeiden.
Regierungen kümmern sich um nationale Sicherheit, kritische Infrastrukturen und öffentliche Dienste; regulierte Branchen (Gesundheitswesen, Finanzen, Verteidigung) benötigen Einhaltung strenger Datenschutz- und AI-Regeln; und große Unternehmen wollen strategische Unabhängigkeit und AI mit ihrem eigenen Roadmap ausrichten, nicht mit der eines Anbieters. In der Praxis zeigt sich sovereign AI als nationale oder regionale AI-Clouds und Datenzentren, nationale oder gemeinsam entwickelte AI-Modelle anstelle fremder „Schwarzkastensysteme“ und strenge Regeln für Datenresidenz, Zugriffssteuerung und Audit von AI-Systemen.
Aspekte und Methoden: Wie sovereign AI gebaut wird
Staaten und Organisationen bauen sovereign AI typischerweise entlang mehrerer Aspekte (strategische Säulen) und verwenden konkrete Methoden (technische und Governance-Maßnahmen).
Sechs strategische Säulen (Aspekte)
Der World Economic Forum und ähnliche Rahmenbedingungen beschreiben sechs strategische Säulen, die erklären, wie Nationen sovereign AI aufbauen:
-
Digitale Infrastruktur – Datenzentren mit ausreichender Rechenleistung, Datenlokalisierungspolitiken, die sicherstellen, dass Daten, die innerhalb der Grenzen generiert werden, lokal gespeichert und verarbeitet werden, und Netzwerke, die AI-Arbeitslasten unterstützen. Dies ist der Rückgrat für die Entwicklung und Bereitstellung von AI unter nationaler oder regionaler Kontrolle.
-
Fachkräfteentwicklung – STEM- und AI-Bildung, aktualisierte Lehrpläne, berufliche Ausbildung und lebenslange Lernchancen, damit ein Land über das Know-how verfügt, um sovereign AI-Systeme zu entwickeln und zu betreiben.
-
Forschung, Entwicklung und Innovation (RDI) – Öffentliche und private Finanzierung für grundlegende und anwendungsorientierte AI-Forschung, Anreize zur Kommerzialisierung und Ökosysteme, die Startups, große Unternehmen und Hochschulen verknüpfen.
-
Regulatorischer und ethischer Rahmen – Klare Regeln für die Entwicklung und Bereitstellung von AI: Datenschutz, Transparenz, Datensicherheit, Cybersecurity und ethische Nutzung, plus Aufsichts- und Verantwortlichkeitsmechanismen.
-
Stimulierung der AI-Industrie – Steuererleichterungen, Zuschüsse, vereinfachte Patente und die Adoption von AI durch die öffentliche Verwaltung, um Nachfrage zu schaffen und Standards zu setzen. Öffentlich-private Partnerschaften (PPPs) helfen, AI in hochimpact-Sektoren (Energie, Gesundheit, Finanzen, Verkehr, Herstellung) zu implementieren.
-
Internationale Zusammenarbeit – Engagement mit anderen Ländern zu Standards, grenzüberschreitenden Datenflüssen unter vereinbarten Normen und gemeinsamen Herausforderungen (z. B. Datenschutz, Cybersecurity), ohne die Fähigkeit aufzugeben, lokale Regeln zu setzen.
Sovereign AI ist nicht über Isolation, sondern über strategische Resilienz: die Fähigkeit, auf eigenen Bedingungen zu operieren und zu innovieren, während man dennoch an globaler Zusammenarbeit teilnimmt.
Methoden
Konkrete Methoden, die verwendet werden, um diese Säulen umzusetzen, umfassen:
-
Datenresidenz und Lokalisierung – Erfordernis, dass bestimmte Daten (insbesondere persönliche oder sensible) innerhalb einer Jurisdiktion gespeichert und verarbeitet werden. Dies unterstützt die Einhaltung von GDPR, branchenspezifischen Regeln und nationalen Sicherheitsanforderungen.
-
Sovereign oder regionale AI-Clouds – Aufbau oder Bezeichnung von Cloud- und AI-Infrastruktur (Datenzentren, GPU-Clustern), die unter nationaler oder regionaler rechtlicher und operativer Kontrolle bleiben, damit Arbeitslasten und Daten innerhalb der Jurisdiktion bleiben.
-
Inländische oder offene Gewichtsmodelle – Entwicklung oder Adoption von AI-Modellen (einschließlich LLMs), die geprüft, feinabgestimmt und auf lokaler Infrastruktur betrieben werden können, anstatt nur auf geschlossene, fremde APIs zu vertrauen.
-
Risikobasierte Regulierung – Rahmenbedingungen, die AI-Systeme nach Risiko (z. B. unannehmbar, hoch, begrenzt, minimal) klassifizieren und entsprechend Anforderungen (Einflussbeurteilungen, menschliche Überwachung, Transparenz, Konformität) stellen. Der EU AI Act ist das führende Beispiel.
-
Governance-Strukturen – Dedizierte Organe (z. B. AI-Ämter, Beratungsausschüsse, Marktüberwachungsbehörden), die die Umsetzung überwachen, die Koordination zwischen Regierung und Industrie koordinieren und Regeln durchsetzen.
-
Öffentlich-private Partnerschaften – Gemeinsame Initiativen zwischen Regierung und Industrie, um gemeinsame Infrastruktur zu bauen, Use-Cases (z. B. für öffentliche Verwaltung) zu entwickeln und Anreize für sovereign Fähigkeiten auszurichten.
-
Zertifizierungen und Compliance-Systeme – Sovereign-Cloud- oder „trusted AI“-Zertifizierungen, die sicherstellen, dass Datenstandort, Zugriffssteuerung und Einhaltung lokaler Gesetze gewährleistet sind, wodurch es für öffentliche und regulierte Sektoren einfacher wird, AI sicher zu adoptieren.
Zusammen definieren diese Aspekte und Methoden was sovereign AI anstrebt (Infrastruktur, Talente, Regulierung, Industrie, Zusammenarbeit) und wie es implementiert wird (Residenz, Clouds, Modelle, Regulierung, Governance, PPPs, Zertifizierung).
LLM-Selbsthosting als technischer Weg zur sovereign AI
Das Laufen von LLMs auf Infrastruktur, die man kontrolliert, ist einer der direktesten technischen Wege, sovereign AI in die Praxis umzusetzen. Sie behalten Prompts, Modellgewichte und Inferenzprotokolle im Haus oder im Land, was Datenresidenz, Einhaltung lokaler Regeln und Unabhängigkeit von einer Handvoll Cloud-API-Anbieter unterstützt.
Von technischer Seite aus besteht eine sovereign oder selbstgehostete LLM-Stack typischerweise aus: einer Modellschicht (offene Gewichtsmodelle, Embeddings, optionaler Reranker); einer Servierschicht (Inferenzmotor mit APIs für Chat, Completion, Embeddings); einer Anwendungsschicht (Orchestrierung, Toolaufruf, Workflows); einer Wissensschicht (z. B. RAG mit Chunking, Indexierung, Retrieval); Daten und Speicher (Objektspeicher, Datenbanken, Vektorindizes); und Sicherheit und Governance (PII-Handling, Richtlinien-Enforcement, Audit-Protokolle). Methoden umfassen On-Prem- oder Einzeltenant-Bereitstellung, air-gapped Betrieb (z. B. mit Tools wie Ollama, llama.cpp oder LM Studio) für maximale Isolation, und Gateway-Architekturen, die den Zugriff, Routing und Observabilität zentralisieren, damit alle Prompts und Antworten innerhalb definierter Grenzen bleiben.
Für einen praktischen Weg: eine umfassende Vergleichsanalyse lokaler LLM-Tools – Ollama, vLLM, LocalAI, Jan, LM Studio und mehr hilft Ihnen, den richtigen Stack zu wählen. Wenn Sie auf begrenzter GPU-Speicher laufen, siehe welche LLMs am besten auf Ollama mit 16 GB VRAM performen für Benchmarks und Kompromisse. Um mit einer der beliebtesten Optionen zu beginnen, listet der Ollama Cheatsheet die essentiellen Befehle auf.
Wie Länder das Problem angehen
Länder unterscheiden sich darin, wie sie die oben genannten Säulen und Methoden kombinieren. Unten folgt eine kurze Übersicht, wie die wichtigsten Jurisdiktionen sovereign AI angehen, gefolgt von einem fokussierten Vergleich zwischen USA und China.
Europäische Union
Die EU hat die erste umfassende globale AI-Gesetzgebung verabschiedet – den AI Act (Verordnung (EU) 2024/1689) – mit einem risikobasierten Ansatz: Anwendungen mit unannehmbarem Risiko sind verboten; hochriskante Systeme unterliegen strengen Anforderungen (Einflussbeurteilungen, menschliche Überwachung, Konformität); Systeme mit begrenztem und minimalem Risiko haben leichtere Pflichten. Die Governance ist zentralisiert in der European AI Office (innerhalb der Kommission), mit dem European Artificial Intelligence Board, einer Wissenschaftlichen Kommission und einem Beratungsausschuss, die die Umsetzung und Durchsetzung über die Mitgliedstaaten hinweg unterstützen. Dies schafft ein einheitliches Regelwerk für den einheitlichen Markt und fördert die „Europa-erste“ Bereitstellung von konformen AI-Systemen.
Die europäische sovereign AI basiert auch auf inländischen Modell- und Cloud-Anbietern. Mistral AI (Frankreich) folgt einem offensource-freundlichen Ansatz, indem es Modelle freigibt, die Regierungen und Unternehmen prüfen und auf europäischer Infrastruktur betreiben können. Aleph Alpha (Deutschland) konzentriert sich auf Erklärbarkeit und Sicherheit für regulierte Branchen und sovereign europäische Hosting. Beide entsprechen dem AI Act und helfen, die Abhängigkeit von nicht-EU-Anbietern zu verringern – derzeit nur ein kleiner Anteil der globalen AI-Startup-Finanzierung geht an die EU im Vergleich zu den USA.
Frankreich und Deutschland: gemeinsame sovereign AI für die öffentliche Verwaltung
Frankreich und Deutschland haben eine gemeinsame sovereign AI-Initiative mit Mistral AI und SAP gestartet, die sich auf die öffentliche Verwaltung konzentriert. Sie basiert auf vier Säulen: sovereign AI-native ERP-Systeme für französische und deutsche Verwaltungen; AI-gestützte Finanzverwaltung (z. B. Rechnungsklassifizierung, Prüfungen); digitale Agenten für Beamte und Bürger (Konformitätstools, Eignungschatbots); und gemeinsame Innovationslaboratorien plus Workforce-Training. Ein bindender Rahmenvertrag wird bis Mitte 2026 erwartet, mit ausgewählten Use-Cases zwischen 2026 und 2030. Die Initiative wird von einem Französisch-deutschen Europäischen Digitalen Infrastruktur-Konsortium (EDIC)-Rat geleitet, der von Ministern beider Länder geleitet wird. Dies ist ein konkretes Beispiel für die „regionale Cloud + inländische Modelle + PPP“-Methode in der Praxis.
Vereinigtes Königreich
Das Vereinigte Königreich hat im Juli 2025 eine Sovereign AI Unit mit bis zu 500 Millionen GBP Finanzierung eingerichtet, um nationale AI-Fähigkeiten und Sicherheit zu bauen. Die Unit konzentriert sich auf: Investitionen in UK AI-Unternehmen, um nationale Champions zu entwickeln; die Schaffung von UK AI-Assets (Daten, Rechenleistung, Talente); und Partnerschaften mit führenden AI-Unternehmen, um zuverlässigen Zugang und UK-Einfluss auf cutting-edge Entwicklung zu sichern. Die Regierung hat auch einen AI Opportunities Action Plan (Januar 2025) veröffentlicht, der die Rolle der AI bei wirtschaftlichem Wachstum und öffentlichen Dienstleistungen betont. Der Ansatz kombiniert Infrastruktur und Talente (Säulen 1 und 2) mit Industrieanreizen (Säule 5) und strategischen Partnerschaften.
Vereinigte Staaten
Die US-Strategie betont Private-Sektor-Führerschaft und föderale Koordination. Im Dezember 2025 hat die Regierung eine Executive Order herausgegeben, um einen nationalen Policy-Framework für AI sicherzustellen, der darauf abzielt, amerikanische AI-Innovationen zu schützen und die US-Globalführerschaft durch einen „minimalen Belastungsrahmen“ aufrechtzuerhalten. Sie weist das Justizministerium an, „schwerwiegende“ staatliche AI-Gesetze zu bekämpfen und fördert föderale Präemption, damit staatliche Regeln den Markt nicht fragmentieren. Dies folgt der „America’s AI Action Plan“ aus Juli 2025 und reagiert auf umfangreiche staatliche Aktivitäten – über 1.000 AI-verbundene Gesetzesvorlagen wurden in US-Bundesstaaten und Territorien 2025 eingereicht. Die USA nutzen auch Exportkontrollen für fortgeschrittene Chips, um ihre Führung in der Rechenleistung zu schützen und zu bestimmen, wer frontier AI bauen darf. Sovereign AI in den USA wird also hauptsächlich durch private Investitionen (z. B. xAI, OpenAI), föderale Governance (59 föderale AI-verbundene Regulierungen im Jahr 2024) und internationale Abkommen (z. B. Stargate mit den Vereinigten Arabischen Emiraten) erreicht, nicht durch eine einzelne staatliche AI-Cloud.
Kanada
Kanada hat eine Canadian Sovereign AI Compute Strategy mit 2 Milliarden CAD über fünf Jahre gestartet, um die nationale AI-Rechenleistung zu stärken. Sie besteht aus drei Komponenten: Privatkapital mobilisieren (bis zu 700 Mio. CAD über einen AI-Compute-Challenge für Unternehmen und Akademie, um integrierte AI-Datenzentrum-Lösungen zu bauen); öffentliche Supercomputing-Infrastruktur aufbauen; und einen AI-Compute-Zugangsfonds für Forscher und Unternehmen. Das Ziel ist, kanadische Daten und IP zu schützen, während Kanadas Vorteile in Energie, Land und Klima genutzt werden. Getrennt davon hat Kanada im März 2025 seine erste AI-Strategie für die Bundesverwaltung (2025–2027) gestartet, mit Prioritäten: ein AI-Zentrum für Expertise, sichere und verantwortungsvolle Nutzung, Schulung und Talente, sowie Transparenz. Im September 2025 startete die Regierung eine AI-Strategie Task Force und eine 30-tägige nationale Beteiligung, um eine umfassendere nationale AI-Strategie zu entwickeln.
Australien
Australiens Policy for the Responsible Use of AI in Government (Version 2.0) trat am 15. Dezember 2025 in Kraft. Sie gilt für nicht-korporative Commonwealth-Entitäten und enthält nationalsecurity-Exklusivitäten: Verteidigungs- und Geheimdienstbehörden können freiwillig Elemente annehmen, während sie Sicherheitsinteressen schützen. Die Richtlinie setzt Erwartungen für verantwortungsvolle Adoption, Risikomanagement und Transparenz innerhalb der Regierung, die mit der „regulatorischen und ethischen Rahmen“-Säule übereinstimmen, während sie Raum für die sovereign Behandlung sensibler und nationaler Sicherheits-AI lässt.
Vereinigte Arabische Emirate und Saudi-Arabien
Die Vereinigten Arabischen Emirate haben eine National Strategy for Artificial Intelligence 2031 (seit 2017) mit dem Ziel, die UAE zu einem globalen AI-Führer in acht strategischen Zielen (z. B. AI-Zielort, Ökosystem, Governance) und neun Prioritätssektoren (Verkehr, Gesundheit, Raumfahrt, erneuerbare Energien, Wasser, Technologie, Bildung, Umwelt, Verkehr) zu machen. Saudi-Arabien verfolgt großskalige AI und Diversifizierung unter Vision 2030, mit mehrere Milliarden Dollar Investitionen. Beide, die UAE und Saudi-Arabien, investieren in regionale Datenzentren und AI-Infrastruktur: UAE’s Khazna Data Centers (größter Betreiber der Region) hat sich in Saudi-Arabien mit einem 200 MW Datenzentrum für Cloud- und AI-Hyperscale-Bereitstellungen ausgeweitet und arbeitet an über 1 GW AI-fähiger Kapazität in der UAE, Saudi-Arabien, Italien und anderen Märkten. Der Ansatz kombiniert nationale Strategie (Säulen 4 und 5) mit starken Investitionen in digitale Infrastruktur (Säule 1).
USA vs. China: ein Vergleich
USA und China verfolgen die AI-Führerschaft durch verschiedene Methoden. Die USA verlassen sich auf Private Kapital und Exportkontrollen: z. B. 109 Mrd. USD in private AI-Investitionen im Jahr 2024 (ca. 12× China’s damals), 59 föderale AI-verbundene Regulierungen im Jahr 2024 und Einschränkungen bei Exporten von fortgeschrittenen Chips. China betont staatlich geführte Investitionen und Selbstversorgung: z. B. 98 Mrd. USD für 2025 (einschließlich 47,5 Mrd. USD für Halbleiter), inländische Chipproduktion (z. B. Huawei Ascend) und unterstützende nationale Gesetze plus Open-Source und Infrastruktur-Diplomatie (z. B. Belt and Road).
| Aspekt | USA | China | Hinweis |
|---|---|---|---|
| Supercomputer-Anteil (Mai 2025) | ~75% (~40 Mio. H100 Äquivalente) | ~14% (~400 K Äquivalente) | USA 5×+ vorne |
| Flaggschiff-Systeme | z. B. xAI Colossus (200 K GPUs) | Bis zu ~30 K GPUs (verschiedene) | USA skalieren größer |
| Datenzentren | Viel mehr | Weniger, expandieren (z. B. Digital Silk Road) | USA-Vorteil |
| Politische Haltung | Defensive (Vorbeugung, Exportkontrollen) | Proaktiv (unterstützende Gesetze, Open-Source, Diplomatie) | Unterschiedliche Hebel |
| Fokus auf Modelle und Anwendungen | Frontier-Modelle (40+ bekannt in 2024), Talente-Anziehung | Kosten-effiziente Schulung (z. B. DeepSeek-V3), Forschungsvolumen, Anwendungen (z. B. Baidu autonome Fahrten) | Lücken schließen |
Die USA profitieren von umfassendem Zugang zu NVIDIA und einem tiefen Venture-Ecosystem; China baut Alternativen und investiert in Energie und AI-Infrastruktur in Nahost und Asien. Modellleistungsabstände schließen sich (z. B. 1,7 % LMSYS-Vorteil für die USA im Jahr 2025).
Um selbstgehostete Optionen (Ollama, vLLM, LocalAI, Docker Model Runner) mit Cloud-Anbietern – einschließlich Kosten und Infrastruktur-Kompromisse – zu vergleichen, siehe unsere LLM-Hosting: Lokal, Selbstgehostet & Cloud-Infrastruktur Vergleich.
Nützliche Links
- Beste LLMs für Ollama auf 16 GB VRAM GPU
- Lokales LLM-Hosting: Vollständiger Leitfaden 2026 – Ollama, vLLM, LocalAI, Jan, LM Studio & mehr
- Ollama Cheatsheet
Quellen
- Was ist sovereign AI?
- AI-Souveränität: warum es wichtig ist
- Sovereign Remedies: zwischen AI-Autonomie und Kontrolle
- AI-Souveränität
- Sovereign AI: was es ist und sechs strategische Säulen
- Regulatorischer Rahmen für AI (EU)
- AI Act Governance und Durchsetzung
- Frankreich und Deutschland verbinden sich mit Mistral AI und SAP für sovereign AI
- SAP und Mistral AI: Allianz für europäische sovereign AI
- Europa übernimmt die Kontrolle: Mistral AI und Aleph Alpha
- Aleph Alpha und IPAI (Deutschland)
- Französisch-deutsche sovereign AI-Initiative
- UK Sovereign AI Unit
- UK AI Opportunities Action Plan – government response
- Ensuring a national policy framework for AI (US EO)
- Unpacking the December 11, 2025 Executive Order (US)
- Canadian Sovereign AI Compute Strategy
- Canada launches AI Strategy for federal public service
- GC AI Strategy 2025–2027 overview
- Canada AI Strategy Task Force and public engagement
- Australia: Policy for the responsible use of AI in government – implementation
- UAE Strategy for Artificial Intelligence
- UAE and Saudi Arabia lead global shift towards sovereign AI
- UAE’s Khazna enters Saudi Arabia with data centre
- Sovereign AI in the GCC
- The rise of sovereign AI clouds
- Sovereignty, security, scale: UK strategy for AI infrastructure
- Sovereign AI infrastructure as strategic asset
- US and China AI infrastructure: 2025 perspective
- China’s AI self-sufficiency push
- How will the US and China power the AI race?
- China, United States, and the AI race
- The AI narrative divide between the US and China