30. April 2026

ddbnews.org

produced by ae-radiostation.com

Geheimer Deal des Pentagon mit Google: Big Tech verschmilzt mit dem Militär – ohne öffentliche Kontrolle

 

Google und das Pentagon: Wenn zivile Technologie zur militärischen Blackbox wird

Die Nachrichtenagentur Reuters berichtet, dass Google einen klassifizierten KI-Deal mit dem US Department of Defense abgeschlossen hat. Die Vereinbarung erlaubt den Einsatz der Technologie für „jede rechtmäßige Regierungsanwendung“. Eine Formulierung, die bewusst offen gehalten ist – und genau deshalb brisant.

Denn was hier entsteht, ist mehr als ein weiterer Technologietransfer. Es ist die systematische Verschmelzung eines der mächtigsten Datenkonzerne der Welt mit dem militärischen Apparat der Vereinigten Staaten.

Google stellt nicht irgendein Produkt bereit. Das Unternehmen kontrolliert globale Informationsströme, analysiert Milliarden von Suchanfragen und verfügt über eine Infrastruktur, die menschliches Verhalten in bislang unerreichter Tiefe abbilden kann. Wenn diese Fähigkeiten in sicherheitsrelevante Systeme überführt werden, entsteht ein Werkzeug, das weit über klassische Militärtechnik hinausgeht.

Offiziell dient die Kooperation der nationalen Sicherheit. Doch der Begriff „rechtmäßige Nutzung“ ist dehnbar – und wird letztlich von genau jenen Institutionen definiert, die die Technologie einsetzen. Eine unabhängige Kontrolle existiert in solchen Bereichen kaum. Transparenz schon gar nicht.

Besonders kritisch ist dabei ein strukturelles Problem: Google entwickelt die Systeme, verliert aber die Kontrolle über deren konkrete Anwendung. Was im Pentagon mit diesen Technologien geschieht, unterliegt Geheimhaltung. Damit verschiebt sich die Verantwortung – von der Entwicklung zur Nutzung – in einen Raum, der sich öffentlicher Rechenschaft entzieht.

Die eigentliche Tragweite liegt in der Natur moderner KI selbst. Diese Systeme können nicht nur Daten verarbeiten, sondern Muster erkennen, Profile erstellen und Verhalten prognostizieren. In einem militärischen Kontext bedeutet das: automatisierte Risikobewertung, algorithmische Zielauswahl und potenziell die Klassifizierung von Menschen oder Gruppen als Bedrohung.

Das ist keine theoretische Debatte mehr. Die technologische Grundlage dafür existiert bereits. Was fehlt, ist nicht die Fähigkeit – sondern die politische Entscheidung, wie weit man bereit ist zu gehen.

Die Grenze zwischen äußerer Sicherheit und innerer Kontrolle wird dabei zunehmend unscharf. Systeme, die zur Bekämpfung externer Bedrohungen entwickelt werden, lassen sich prinzipiell auch im Inneren einsetzen. Die Geschichte staatlicher Machtinstrumente zeigt, dass solche Verschiebungen keine Ausnahme sind.

Gleichzeitig wächst der Druck zur Automatisierung. Militärische Entscheidungen sollen schneller, präziser und datenbasierter werden. In der Praxis bedeutet das: Der Mensch bleibt formal in der Entscheidungskette, verlässt sich aber zunehmend auf algorithmische Bewertungen. Damit verschiebt sich die tatsächliche Kontrolle – leise, aber konsequent.

Die Kooperation zwischen Google und dem Pentagon steht exemplarisch für eine Entwicklung, die weit über diesen Einzelfall hinausgeht. Private Technologieunternehmen werden zu zentralen Akteuren militärischer Infrastruktur. Die demokratische Kontrolle bleibt dabei auf der Strecke.

Am Ende stellt sich nicht die Frage, ob diese Technologien eingesetzt werden. Sie werden es bereits. Die entscheidende Frage ist, wer definiert, was als Bedrohung gilt – und wer sicherstellt, dass diese Definition nicht selbst zum Instrument der Macht wird.