GenAI.mil: Wenn das Pentagon KI zur Pflicht macht – 1,1 Millionen Soldaten im größten militärischen KI-Experiment

| Von Katrin Hartmann-Seifert | 18 Min. Lesezeit

Das US-Verteidigungsministerium zwingt 3 Millionen Mitarbeiter zur Nutzung kommerzieller KI-Systeme. Was bedeutet diese beispiellose militärische KI-Adoption für Europa?

GenAI.mil: Wenn das Pentagon KI zur Pflicht macht – 1,1 Millionen Soldaten im größten militärischen KI-Experiment

Am 9. Dezember 2025 erschien auf den Dienstrechner des US-Verteidigungsministeriums ein Pop-up. Viele Soldaten hielten es zunächst für einen Cyberangriff. Tatsächlich war es die Geburtsstunde des größten militärischen KI-Experiments der Geschichte: GenAI.mil – eine Plattform, die kommerzielle KI-Systeme von Google, xAI und OpenAI direkt auf die Desktop-Computer von 3 Millionen Militärangehörigen, Zivilbeschäftigten und Auftragnehmern bringt.

Die Zahlen sind beispiellos

Bis Anfang Februar 2026 haben 1,1 Millionen individuelle Nutzer die Plattform verwendet. Fünf der sechs US-Streitkräftezweige – Army, Navy, Air Force, Space Force und Marine Corps – haben GenAI.mil als ihre offizielle Enterprise-KI-Plattform übernommen.

Das ist kein Pilotprojekt. Das ist eine erzwungene Transformation von oben.

"I want YOU to use AI" – Die neue Normalität

Verteidigungsminister Pete Hegseth formulierte in seinem Memorandum vom 9. Dezember unmissverständlich:

> "I expect every member of the department to login, learn it, and incorporate it into your workflows immediately. AI should be in your battle rhythm every single day. It should be your teammate."

Uncle-Sam-Poster mit Hegseth im Stil des berühmten Rekrutierungsplakats – nur mit der Aufschrift "I want YOU to use AI" – hängen bereits im Pentagon. Die Botschaft ist klar: KI-Nutzung ist nicht optional, sondern Pflicht.

Das 800-Millionen-Dollar-Ökosystem

Im Sommer 2025 vergab das Chief Digital and Artificial Intelligence Office (CDAO) des Pentagon Einzelverträge an vier Unternehmen:

  • OpenAI (17. Juni 2025)
  • Anthropic (14. Juli 2025)
  • Google (14. Juli 2025)
  • xAI (14. Juli 2025)
  • Jeder Vertrag hat eine Obergrenze von bis zu 200 Millionen Dollar. Das potenzielle Gesamtvolumen beträgt damit bis zu 800 Millionen Dollar – nicht 200 Millionen, wie in vielen Darstellungen fälschlich behauptet wird.

    Welche KI-Modelle sind bereits verfügbar?

    Google Cloud's Gemini for Government ging als erstes Modell auf GenAI.mil live. Die Plattform zeigt bereits Platzhalter für:

  • Grok (xAI) – Integration für Anfang 2026 angekündigt
  • ChatGPT (OpenAI)
  • Claude (Anthropic) – allerdings mit Fragezeichen
  • Der Grundsatzkonflikt mit Anthropic: Ethik vs. "Any Lawful Use"

    Während Google, xAI und OpenAI kooperieren, droht der Vertrag mit Anthropic an einem fundamentalen Konflikt zu scheitern. Laut Wall Street Journal und Reuters fordert das Pentagon die Entfernung von Sicherheitsschranken, die Anthropic in seine Claude-Modelle eingebaut hat.

    Hegseths klare Ansage

    In seinem AI-Strategiememo vom 12. Januar 2026 formulierte Hegseth:

    > "We will not employ AI models that won't allow you to fight wars."

    Diese Aussage wird von Insidern als direkte Spitze gegen Anthropic interpretiert. Der Konflikt betrifft die Frage, ob KI-Modelle für autonome Zielerfassung und Einsatzszenarien ohne Einschränkungen nutzbar sein müssen.

    Anthropics Dilemma

      Anthropic-CEO Dario Amodei warnte in einem Essay vor:
    • Großflächiger Überwachung durch KI
    • Vollständig autonomer Waffeneinbindung
    • KI-Einsatz ohne menschliche Kontrolle
      Das Unternehmen hat seine Nutzungsbedingungen explizit formuliert:
    • Verbot der Waffenentwicklung
    • Einschränkungen bei inländischer Überwachung
    • Schutz vor Missbrauch in Strafverfolgung

    Diese Haltung kollidiert direkt mit Hegseths Vision einer "AI-first warfighting force".

    Die "AI-first"-Doktrin: Neudefinition von "Responsible AI"

    Am 12. Januar 2026 veröffentlichte Hegseth bei SpaceX' Starbase in Texas das "AI Acceleration Strategy"-Memo. Es fordert die Transformation des gesamten Verteidigungsapparats in eine "AI-first warfighting force across all domains".

    Was bedeutet das konkret?

    Alte Definition (Biden-Administration): Verantwortungsvolle KI bedeutete strenge Sicherheitsprüfungen, menschliche Überprüfungsschleifen und Einschränkungen in sicherheitskritischen Bereichen.

    Neue Definition (Hegseth): "Responsible AI" bedeutet jetzt: "objectively truthful AI capabilities employed securely and within the laws governing the activities of the department"

    Der entscheidende Unterschied: Keine ethischen Einschränkungen mehr, solange es gesetzlich erlaubt ist.

    Die neuen Direktiven

    Der CDAO wurde angewiesen:

  • Innerhalb von 90 Tagen: Benchmarks für "model objectivity" als primäres Beschaffungskriterium entwickeln
  • Innerhalb von 180 Tagen: Standardisierte "any lawful use"-Klausel in alle KI-Beschaffungsverträge aufnehmen
  • Diese "Any Lawful Use"-Klausel ist der Knackpunkt. Sie würde KI-Anbieter zwingen, jede gesetzlich erlaubte militärische Anwendung zu unterstützen – ohne Veto-Recht bei ethisch fragwürdigen Einsätzen.

    Realität vs. Rhetorik: Was wird wirklich genutzt?

      Offiziell benennt die Pentagon-Kommunikation drei Zielkategorien:
    • Organisatorische Aufgaben
    • Nachrichtendienstliche Analyse
    • Kriegsführung

    Die dokumentierte Wahrheit

    DefenseScoop-Recherchen zeigen jedoch: Die tatsächlichen Einsatzbereiche sind bislang ausschließlich administrativ:

  • Erstellung von Auszeichnungspaketen
  • E-Mails und Memoranden
  • Leistungsbeurteilungen
  • Befehlsschreiben
  • Standardoperationsverfahren (SOPs)
  • Ein Infanterie-Unteroffizier berichtete stolz, er habe mit KI-Unterstützung komplette SOPs erstellt und dafür Anerkennung erhalten.

    Aber: Begriffe wie "combat simulations" oder "autonomous targeting", die in Strategiepapieren auftauchen, beziehen sich auf separate Zukunftsprojekte – nicht auf die aktuelle GenAI.mil-Nutzung.

    Der interne Widerstand: "People are furious"

    Die Einführung von GenAI.mil stieß auf erheblichen Widerstand innerhalb der Truppe. DefenseScoop dokumentierte mehrere gravierende Problemfelder:

    1. Fehlende Schulung

    Ein hochrangiger Unteroffizier der Air Force:

    > "It literally just showed up one day in an email saying 'I want you to use it' while having zero training or addressing anybody's concerns about this."

    Zum Zeitpunkt des Rollouts existierten keine umfassenden Leitfäden oder formalen Schulungsprogramme – lediglich das Verbot, persönliche Daten hochzuladen.

    2. Sicherheitsbedenken

    Tyler Saltsman, Army-Veteran und CEO von EdgeRunner AI, warnte:

    > "For most commercial generative AI systems, the training data is a black box. Operators don't know who wrote the source material, whether it reflects U.S. values or adversarial influence."

      Mehrere Dienstangehörige äußerten Sorgen über:
    • Den Verbleib ihrer Eingaben
    • Mögliche Datenlecks durch zu detaillierte Prompts
    • Die Frage, ob ihre Anfragen zum Training kommerzieller Modelle verwendet werden

    3. Leistungsfähigkeit unter Erwartungen

    Ein Verteidigungsoffizieller sagte deutlich:

    > "People are furious that it brings less capability than NIPRGPT — which is being decommissioned — even had."

    Ein weiterer bezeichnete GenAI.mil als "a collection of stovepiped commercial products that you lock yourself into — that is disastrous."

    Das Problem: Google's RAG-System auf der Plattform greift standardmäßig auf gecachte Webinhalte zu, ohne dass Nutzer dies wissen oder deaktivieren können.

    4. Der erzwungene Charakter

    Ein hochrangiger Army-Offizier beschrieb den Unterschied zu früheren Einführungen:

    > "This feels a lot different because this one got so much more attention — and it also came with a department-level mandate that said 'You will incorporate this into your daily workflows.'"

    Als Soldaten am 9. Dezember das Pop-up sahen, hielten einige es zunächst für einen Cyberangriff.

    Parallele Systeme: Nicht alle steigen um

    Die Adoption verläuft nicht einheitlich:

    Air Force: Hat ihr vorheriges System NIPRGPT zum 31. Dezember 2025 abgeschaltet und vollständig auf GenAI.mil umgestellt.

    Army: Betreibt ihr spezialisiertes CamoGPT-System parallel weiter. Laut DefenseScoop bietet CamoGPT spezialisierte KI-Tools, die auf sensiblen, unklassifizierten sowie teilweise klassifizierten militärspezifischen Daten trainiert wurden.

    Coast Guard: Entwickelt ein eigenes Tool namens "Ask Hamilton", hat aber dennoch technischen Zugang zu GenAI.mil.

    Weitere bestehende Systeme wie AskSage und SIPRGPT bedienen Nischen, die GenAI.mil nicht abdeckt – insbesondere klassifizierte Anwendungen.

    Der geopolitische Kontext: "Department of War"

    Die Einführung von GenAI.mil steht in einem breiteren Kontext der Trump-Administration:

    Die Umbenennung

    Im September 2025 wurde das Verteidigungsministerium per Executive Order von Präsident Trump offiziell auch unter dem Zweitnamen "Department of War" geführt.

    Laut Congressional Budget Office könnte diese Umbenennung bis zu 125 Millionen Dollar kosten – allein für neue Briefköpfe, Websites und Beschilderungen.

    Die neue Führung

    Pentagon-CTO Emil Michael – ehemals "Under Secretary of War for Research and Engineering" – bezeichnete KI als "America's next Manifest Destiny".

    Die CDAO-Leitung wurde Cameron Stanley übertragen, dessen Team laut Hegseth "lucrative careers" bei AWS, Databricks, Palantir und Meta aufgegeben hat.

    Was bedeutet das für Europa und Deutschland?

    Die GenAI.mil-Initiative ist mehr als ein amerikanisches Phänomen. Sie wirft grundsätzliche Fragen auf:

    1. Der KI-Rüstungswettlauf ist real

    Mit 1,1 Millionen Nutzern in unter zwei Monaten demonstrieren die USA einen Implementierungsgrad, den kein europäisches Land erreicht hat.

    Die Frage: Kann Europa es sich leisten, bei der militärischen KI-Adoption zurückzufallen?

    2. Ethische Standards unter Druck

    Der Konflikt zwischen Hegseth und Anthropic zeigt: Der Druck auf KI-Unternehmen steigt, ethische Schranken für militärische Anwendungen zu lockern.

    Die Frage: Wo ziehen europäische KI-Entwickler die Grenze?

    3. Governance und Transparenz

    GenAI.mil wurde ohne umfassende Sicherheitsprüfungen, Schulungen oder öffentliche Debatte ausgerollt.

    Die Frage: Wie sollte eine verantwortungsvolle militärische KI-Adoption aussehen?

    4. Technologische Abhängigkeit

    Alle vier Vertragspartner (Google, OpenAI, xAI, Anthropic) sind amerikanische Unternehmen.

    Die Frage: Braucht Europa eigene militärische KI-Plattformen?

    Praktische Implikationen für deutsche Unternehmen

    Auch wenn GenAI.mil militärisch ist – die Prinzipien sind übertragbar:

    Was funktioniert:

  • Schnelle Skalierung: Von 0 auf 1,1 Millionen Nutzer in 2 Monaten
  • Top-Down-Mandat: Klare Ansage von höchster Ebene
  • Multi-Anbieter-Strategie: Nicht auf einen KI-Provider setzen
  • Was nicht funktioniert:

  • Fehlende Schulung: Mitarbeiter fühlen sich alleingelassen
  • Keine Sicherheitsprüfungen: Vertrauen in kommerzielle Blackboxes
  • Erzwungene Adoption: Widerstand statt Akzeptanz
  • Was deutsche Unternehmen lernen können:

      1. Governance vor Geschwindigkeit Bevor Sie unternehmensweite KI ausrollen, definieren Sie:
    • Erlaubte Anwendungsfälle
    • Verbotene Datenkategorien
    • Eskalationspfade bei Problemen
      2. Schulung ist nicht optional Investieren Sie in:
    • Praktische Trainings
    • Use-Case-Bibliotheken
    • Interne Champions, die Fragen beantworten
      3. Transparenz über Datenflüsse Klären Sie mit Ihrem KI-Anbieter:
    • Wo werden Eingaben gespeichert?
    • Werden Daten für Training verwendet?
    • Welche Sicherheitsstandards gelten?

    4. Multi-Provider-Strategie Setzen Sie nicht auf einen Anbieter. Tools wie Replit ermöglichen schnelles Prototyping verschiedener KI-Modelle. Für automatisierte Workflows lohnt sich n8n.

      5. Menschliche Überprüfung in kritischen Prozessen Bei geschäftskritischen Entscheidungen:
    • Immer menschliche Endkontrolle
    • Dokumentierte Audit-Trails
    • Klare Haftungsregelungen

    Die sieben Pace-Setting Projects: Wohin die Reise geht

    Hegseths AI-Strategiememo vom 12. Januar 2026 benennt sieben Prioritätsprojekte:

  • GenAI.mil – Die Enterprise-Plattform (bereits live)
  • Swarm Forge – "Novel ways of fighting with and against AI-enabled capabilities" (KI-Schwärme)
  • Ender's Foundry – Neue Simulationsfähigkeiten (benannt nach der Sci-Fi-Figur Ender Wiggin)
  • Agent Network – Netzwerk von KI-Agenten
  • Classified AI – GenAI.mil für klassifizierte Daten
  • Zwei weitere, noch nicht öffentlich benannte Projekte
  • Diese Projekte zeigen: GenAI.mil ist erst der Anfang.

    Fazit: Das größte KI-Experiment – mit offenem Ausgang

    GenAI.mil ist real, groß angelegt und beispiellos in der Geschichte militärischer KI-Adoption. 1,1 Millionen Nutzer in unter zwei Monaten sind eine belegbare Zahl.

    Aber: Die grundlegendsten Fragen zu Sicherheit, Schulung und Verantwortlichkeit sind zum Zeitpunkt dieses Artikels nicht öffentlich beantwortet.

    Und: Parallel droht einer der vier Großverträge – jener mit Anthropic – an einem Grundsatzkonflikt über die ethischen Grenzen militärischer KI-Nutzung zu scheitern.

    Die drei Kernfragen bleiben:

  • Technisch: Funktioniert die Plattform besser als bestehende Systeme?
  • Bislang: Nein, laut internen Quellen
  • Ethisch: Wo liegen die Grenzen der KI-Nutzung in militärischen Kontexten?
  • Bislang: Konflikt zwischen Pentagon und Anthropic ungelöst
  • Strategisch: Verschafft GenAI.mil den USA einen entscheidenden Vorteil?
  • Bislang: Zu früh zu sagen, aber die Geschwindigkeit ist beeindruckend

    Was sicher ist: Die Ära der militärischen Agentic AI hat begonnen. Europa kann nicht länger zuschauen.

    ---

    Sie möchten verstehen, wie autonome KI-Systeme in Ihrem Unternehmen sicher implementiert werden können? Unsere KI-Berater helfen Ihnen bei der strategischen Planung – von Governance-Strukturen bis zur praktischen Umsetzung.

    Weiterführende Tools für KI-Integration:

  • Newsletter-Automation: Beehiiv für KI-gestütztes Content-Management
  • Social-Media-Automatisierung: Postwise für LinkedIn & Co.
  • Workflow-Automatisierung: n8n für No-Code-KI-Integration
  • KI-gestützte Recherche: Genspark mit 1000 kostenlosen Credits
  • Professionelle Sprachausgabe: ElevenLabs
  • Video-Avatare: HeyGen
  • Rapid Prototyping: Replit
    • Quellen:
    • DefenseScoop (defensescoop.com)
    • DoW-Pressemitteilungen (war.gov, ai.mil)
    • DoW Strategy Memos (media.defense.gov)
    • Breaking Defense
    • Wall Street Journal
    • Reuters
    • Semafor
    • Small Wars Journal