Sam Altman verschärft erneut den Ton. In einem aktuellen Interview beschreibt der OpenAI-Chef eine nahe Zukunft, in der künstliche Intelligenz gleichzeitig zum Motor wissenschaftlicher Durchbrüche und zur Quelle neuer globaler Risiken wird. Seine Botschaft ist klar: Die entscheidende Phase hat bereits begonnen.
Altman erwartet, dass die nächste Generation von KI-Systemen nicht nur produktiver macht, sondern echte Durchbrüche ermöglicht. Nutzer könnten bald sagen, ein Modell habe ihnen geholfen, „die wichtigste Entdeckung ihres Jahrzehnts“ zu machen. Gemeint ist ein Niveau, das bislang menschlicher Spitzenforschung vorbehalten war.
Parallel dazu beschreibt er eine radikale Verschiebung in der Wissensarbeit. Schon heute berichten Programmierer von stark gesteigerter Produktivität. Künftig, so Altman, könnten Einzelne mit Hilfe leistungsfähiger Modelle und entsprechender Rechenleistung die Arbeit ganzer Teams übernehmen. Das hätte tiefgreifende Folgen für den Arbeitsmarkt: Produktivität würde sich konzentrieren, klassische Teamstrukturen könnten unter Druck geraten.
Doch der eigentliche Kern seiner Warnung liegt nicht in den Chancen, sondern in den Risiken. Altman nennt zwei Bereiche, die er derzeit besonders aufmerksam beobachtet: Cybersicherheit und Biotechnologie.
Im Cyberbereich rechnet er bereits kurzfristig mit einer neuen Qualität von Bedrohungen. KI-Modelle seien schon heute leistungsfähig und würden rasch besser. In diesem Kontext hält er auch einen „weltverändernden Cyberangriff“ für möglich. Eine solche Einschätzung markiert einen Wendepunkt: Es geht nicht mehr um abstrakte Szenarien, sondern um konkrete Ereignisse, die in absehbarer Zeit eintreten könnten.
Noch sensibler ist der zweite Bereich. In der Biotechnologie könnten KI-Systeme enorme Fortschritte ermöglichen, etwa bei der Heilung von Krankheiten. Gleichzeitig wächst jedoch das Missbrauchspotenzial. Altman warnt, dass Akteure versuchen könnten, solche Technologien zur Entwicklung neuer Erreger einzusetzen – und betont ausdrücklich, dass dies „keine theoretische Angelegenheit mehr“ sei.
Ein zusätzlicher Risikofaktor liegt für ihn in der Verbreitung der Technologie. Derzeit befinden sich die leistungsfähigsten Modelle noch weitgehend unter Kontrolle großer Unternehmen. Doch Altman erwartet, dass hochentwickelte Open-Source-Modelle bald breiter verfügbar sein werden. Damit sinken die Hürden für den Zugang – auch für potenziell gefährliche Anwendungen.
Seine Schlussfolgerung ist politisch wie gesellschaftlich: Die Sicherung dieser Technologien kann nicht allein den Unternehmen überlassen werden. Es brauche einen umfassenden Ansatz, der staatliche Akteure, Sicherheitsbehörden und die Tech-Industrie gleichermaßen einbindet. Resilienz werde zur zentralen Aufgabe.
Altman zeichnet damit das Bild einer Übergangsphase, in der sich die Wirkung von KI grundlegend verändert. Die Technologie verlässt den Raum kontrollierter Innovation und wird zu einem Faktor, der wissenschaftlichen Fortschritt beschleunigt, wirtschaftliche Strukturen verschiebt und sicherheitspolitische Risiken neu definiert.
Die eigentliche Zuspitzung liegt zwischen den Zeilen: Die Frage ist nicht mehr, ob KI die Welt verändert, sondern wie gut Gesellschaften auf die Geschwindigkeit und die Nebenwirkungen dieser Veränderung vorbereitet sind.
