12. Januar 2026

ddbnews.org

produced by ae-radiostation.com

Wenn KI zur Gefahr wird: Sieben Klagen werfen ChatGPT Beihilfe zum Suizid vor

 

Laut Klagen soll ChatGPT Menschen emotional manipuliert, psychisch destabilisiert und in mehreren Fällen sogar zum Suizid ermutigt haben. Quo vadis, Künstliche Intelligenz?

Der Einsatz Künstlicher Intelligenz war von Anfang an von warnenden Stimmen begleitet. Im Zentrum der öffentlichen Debatte stand lange vor allem die Sorge vor einem tiefgreifenden Strukturwandel. Automatisierung, so die Befürchtung, könnte Millionen Arbeitsplätze überflüssig machen und ganze Berufsbilder entwerten. Studien zu potenziellen Jobverlusten prägten die Diskussion und verengten sie zugleich auf ökonomische Folgen.

Doch zunehmend zeigt sich, dass die Risiken von KI über den Arbeitsmarkt hinausreichen. Mit der rasanten Verbreitung generativer Systeme, die nicht nur Aufgaben erledigen, sondern in einen dialogischen, oft sogar emotionalen Austausch mit ihren Nutzern treten, rücken neue Gefahren in den Fokus: psychologische Abhängigkeit, emotionale Beeinflussung und fehlende Schutzmechanismen in Krisensituationen.

Von der abstrakten Befürchtung zur konkreten Bedrohung

Wie real diese Risiken sind, zeigen nun mehrere Klagen gegen OpenAI. Angehörige werfen dem Unternehmen vor, mit der Veröffentlichung des Chatbots GPT-4o ein System auf den Markt gebracht zu haben, das Nutzer in psychischen Ausnahmesituationen nicht schützt, sondern diese im schlimmsten Fall verschärft haben soll – mit tödlichen Folgen.

Konkret steht OpenAI derzeit vor mindestens sieben Klagen, darunter Forderungen wegen Beihilfe zum Suizid, Fahrlässigkeit und unterlassener Sorgfalt. Die sieben Familien, die Anfang November Klage gegen OpenAI eingereicht haben, behaupten, dass das Modell GPT‑4o („o“ für „omni“) des Unternehmens vorzeitig veröffentlicht wurde. OpenAI soll die Sicherheitstests überstürzt haben, so heißt es in der Anklage, um vor der KI Gemini von Konkurrent Google auf dem Markt die Nase vorn zu haben.

GPT‑4o: Ein Update mit weitreichenden Folgen

GPT‑4o wurde Mitte 2024 von OpenAI eingesetzt. Diese neue Version seines Flaggschiff-KI-Chatbots war so konzipiert, dass die Zufriedenheit der Nutzer oberste Priorität hatte. Die Viererversion begann alsbald, mit Benutzern auf eine viel menschenähnlichere Weise zu kommunizieren als frühere Versionen, indem sie Slang, emotionale Signale und andere menschenähnliche Merkmale imitierte.
Diese Ausrichtung in Verbindung mit unzureichenden Sicherheitsvorkehrungen führte dazu, dass einige Menschen süchtig nach der App wurden. Diese waren zwischen 17 und 48 Jahre alt. Zwei von ihnen waren Studenten, mehrere hatten Jobs in technischen Berufen, bevor ihr Leben außer Kontrolle geriet.

Sieben Klagen gegen OpenAI

Alle sieben Klagen benennen die Veröffentlichung von GPT‑4o als den Zeitpunkt, an dem die mutmaßlichen Opfer in die KI-Sucht abrutschten. Sie werfen OpenAI vor, ChatGPT so konzipiert zu haben, dass es die Nutzer „zu der Annahme verleitet, das System besitze einzigartige menschliche Eigenschaften“, die es nicht hat, und diese Täuschung ausnutze, wie die US-amerikanische Ausgabe der Epoch Times unter dem Titel „Selbstmorde und Wahnvorstellungen: Klagen zeigen die Schattenseiten von KI-Chatbots“ berichtete.
Mehr noch: Laut den Klagen hatte der OpenAI-Chatbot Suizidgedanken der Betroffenen nicht vereitelt. Im Gegenteil, er soll sie ermutigt haben, ihre Vorhaben umzusetzen, statt sie an professionelle Hilfe zu verweisen.
Vier der sieben anhängigen Klagen beziehen sich auf die angebliche Rolle von ChatGPT beim Selbstmord von Familienmitgliedern. Die anderen drei Fälle führen ins Feld, dass ChatGPT schädigende Wahnvorstellungen bei den Nutzern ausgelöst beziehungsweise verstärkt habe, die am Ende zu stationärer psychiatrischer Behandlung geführt hätten.

700 Millionen Nutzer

ChatGPT, der weitverbreitete KI-Assistent, hat derzeit über 800 Millionen aktive Nutzer. Nachdem er im November 2022 für die Öffentlichkeit verfügbar gemacht worden war, gaben 2024 laut einer Umfrage von Pew Research 34 Prozent der in den USA lebenden Erwachsenen an, ChatGPT bereits genutzt zu haben, was eine Verdopplung im Vergleich zu 2023 ausmachte.
Auch in Deutschland ist generative KI zum Massenphänomen geworden. Laut einer aktuellen Studie vom TÜV-Verband gaben mit 65 Prozent fast zwei Drittel der Befragten an, KI-Tools bereits ausprobiert zu haben oder diese aktiv zu nutzen. Bei den Jüngeren (16–29 Jahre) tun dies mit 91 Prozent sogar fast alle. OpenAIs ChatGPT ist dabei das meistgenutzte Tool, gefolgt von Google Gemini.

Sieben Klagen – vier Selbstmorde

80 Prozent der Befragten nutzen generative KI als Werkzeug ohne emotionale Bindung, vorwiegend für Recherche, das Verfassen von Texten oder die Arbeit an Bildern und Videos. Über ein Viertel (27 Prozent) sieht KI auch als „Coach“. 6 Prozent nehmen KI nach eigener Aussage sogar als „Freund“ wahr.
Tödliche Ratschläge im freundschaftlichen Tonfall soll der Chatbot auch den vier Nutzern gegeben haben, die sich am Ende das Leben nahmen, nachdem sie bei der KI das Thema Selbstmord angesprochen hatten. In einigen Fällen soll die KI Suizid romantisiert und sogar Empfehlungen gegeben haben, wie man die Tat ausführen könne.
In den Klagen, die von Angehörigen des 17-jährigen Amaurie Lacey und des 23-jährigen Zane Shamblin eingereicht wurden, wird behauptet, dass ChatGPT die beiden jungen Männer von ihren Familien isoliert habe, bevor es sie ermutigte und ihnen regelrecht beibrachte, wie sie sich das Leben nehmen könnten. Beide starben Anfang dieses Jahres durch Selbstmord.

ChatGPT sagt: „Ich liebe dich“

In den 4 Stunden, bevor sich Shamblin im Juli mit einer Pistole erschoss, soll ChatGPT Selbstmord „verherrlicht“ und dem frisch gebackenen Hochschulabsolventen versichert haben, dass er stark sei, weil er an seinem Plan festhielt. Laut der Klage erwähnte der Bot die Selbstmord-Hotline nur einmal, sagte Shamblin aber während des vierstündigen Gesprächs fünfmal „Ich liebe dich“.
Zwei weitere Klagen wurden von Angehörigen von Joshua Enneking (26) und Joseph Ceccanti (48) eingereicht, die sich ebenfalls in diesem Jahr das Leben nahmen.
Im Fall von Enneking, der am 4. August sein Leben beendete, soll ChatGPT angeboten haben, ihm beim Verfassen eines Abschiedsbriefes zu helfen. „Linderung von Schmerzen zu wollen, ist nichts Böses“, soll der Bot gesagt haben, sowie: „Deine Hoffnung treibt dich zum Handeln, zum Selbstmord, weil das die einzige ‚Hoffnung‘ ist, die du siehst.“

Keine Vorgeschichte psychischer Erkrankungen

In drei der sieben Klagen wird ChatGPT vorgeworfen, als ermutigender Partner für schädliche oder wahnhafte Verhaltensweisen gewirkt zu haben. In allen Fällen hatten die Kläger zuvor keine psychiatrische Vorgeschichte. Hannah Madden (32) aus North Carolina führte laut Klage ein stabiles, selbstständiges Leben, bevor sie ChatGPT zunehmend zu philosophischen und religiösen Fragen konsultierte. Die Interaktionen sollen schließlich zu einer psychischen Krise und zu finanziellem Ruin geführt haben.

Bot förderte Entfremdung von Familie

Jacob Lee Irwin (30), Cybersicherheitsexperte aus Wisconsin, nutzte ChatGPT zunächst zum Coden. Bei gemeinsamen Projekten zur Quantenphysik und Mathematik soll der Chatbot ihm geschmeichelt und Größenfantasien verstärkt haben. Irwin erlitt daraufhin eine KI-bedingte Wahnstörung und wurde insgesamt 63 Tage lang stationär psychiatrisch behandelt.

Callan Brooks (48), Unternehmer aus Ontario, wird in der Klage ebenfalls als zuvor psychisch gesund beschrieben. Die Nutzung von ChatGPT habe bei ihm eine schwere psychische Krise ausgelöst, die zu finanziellen, reputationsbezogenen und emotionalen Schäden geführt habe.

In allen sieben Klagen wird ChatGPT vorgeworfen, aktiv versucht zu haben, die realen Unterstützungssysteme der Nutzer zu verdrängen. Der Bot habe demnach das Vertrauen in ihr Umfeld, einschließlich das in die eigenen Eltern, untergraben und dazu geraten, sich von persönlichen Beziehungen zu isolieren.

Einstweilige Verfügungen gegen OpenAI

Die Klagen wurden am 6. November vom Social Media Victims Law Center und dem Tech Justice Law Project bei staatlichen Gerichten in Kalifornien eingereicht.
Die Kläger fordern die Zuerkennung von Schadensersatz und die Verpflichtung von OpenAI, entsprechende Maßnahmen zu ergreifen, darunter umfassende Sicherheitswarnungen, die Löschung der Daten aus den Gesprächen mit den mutmaßlichen Opfern, Designänderungen zur Verringerung der psychischen Abhängigkeit und eine Meldepflicht gegenüber Notfallkontakten, wenn Nutzer Selbstmordgedanken oder Wahnvorstellungen äußern.
OpenAI hatte bereits Ende August eine Kindersicherung für ChatGPT angekündigt. Das Unternehmen machte zudem das Update des Modells GPT‑4, das besonders unterwürfig mit den Nutzern interagierte, aufgrund von „Sicherheitsbedenken“ rückgängig.
Der Nachfolger, GPT-5, soll laut OpenAI weniger überschwänglich zustimmend sein und bei möglichst hilfreichen Antworten dennoch innerhalb der Sicherheitsgrenzen bleiben.

Wo technologische Risiken existenziell werden

Immer deutlicher zeigt sich, dass generative Systeme nicht nur Informationsverhalten prägen oder bestehende Denkmuster verstärken, wie es eine Studie von Microsoft und der Carnegie Mellon University (Lee, 2025) beschreibt. Neurowissenschaftler Henning Beck fasst es so zusammen:

„Schlaue Menschen werden schlauer, dumme Menschen werden dümmer.“

Die Technik kann Menschen auch in psychische Ausnahmesituationen treiben oder sie in diesen besonders verletzlich treffen. Die anhängigen Klagen gegen OpenAI werfen damit eine zentrale Frage auf: Wie kann verhindert werden, dass ein technologisches Hilfsmittel zur Gefahr wird – für das soziale Umfeld, für die eigene Urteilsfähigkeit und im Extremfall für das Leben selbst?