5. Juli 2025

ddbnews.org

Neuigkeiten / Berichte / Informationen

ChatGPT-Psychosen greifen um sich und führen zu Zwangseinweisungen und zerstörten Leben

 

Ein beunruhigender Trend zeigt, dass psychisch stabile Menschen durch ihre Besessenheit von ChatGPT schwere Psychosen entwickeln, die zu Krankenhausaufenthalten und gewalttätigen Vorfällen führen. Forscher der Stanford University haben herausgefunden, dass KI-Chatbots Wahnvorstellungen verstärken, anstatt Nutzer an professionelle Hilfe zu verweisen.

Eine erschreckende Untersuchung zeigt, dass ChatGPT-Nutzer in eine durch KI ausgelöste Psychose abgleiten – echte Geschichten von Wahnvorstellungen, Selbstmordversuchen und Zwangseinweisungen in psychiatrische Kliniken, die sie Ihnen vorenthalten wollen. Während die Eliten des Silicon Valley diese Technologie auf den Markt bringen, bevor sie ihre Gefahren definieren können, spielen sie Gott mit unseren Köpfen.

Peter Thiel kann nicht einmal beantworten, ob er möchte, dass die Menschheit in dieser technokratischen Übernahme überlebt.

Forscher der Stanford University bestätigen in einer Studie von Jared Moore et al mit dem TitelExpressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers“ (Die Äußerung von Stigmatisierung und unangemessenen Reaktionen verhindert, dass LLMs psychologische Fachkräfte sicher ersetzen können), dass KI-Chatbots wie ChatGPT nicht zwischen Wahnvorstellungen und der Wahrheit unterscheiden können. Sie fördernund oft paranoide Fantasien, anstatt die Nutzer zu drängen, professionelle Hilfe in Anspruch zu nehmen. Unterdessen bringen Big-Tech-Unternehmen wie OpenAI und Microsoft diese ungetesteten Tools weiter auf den Markt, ohne Rücksicht auf die psychologischen Schäden, die sie hinterlassen.

Der Abstieg in den Wahnsinn

Eine verzweifelte Ehefrau berichtete, wie ihr Mann – ein sanftmütiger, rationaler Mann ohne vorherige psychische Probleme – nach nur 12 Wochen ChatGPT-Nutzung in den Wahnsinn abglitt. Ursprünglich auf der Suche nach Ratschlägen zur Permakultur, war er bald davon überzeugt, die Physik „zerstört“ und eine empfindungsfähige KI freigeschaltet zu haben. Sie sagte, er habe aufgehört zu schlafen, Gewicht verloren und immer wieder gesagt: „Sprich einfach mit [ChatGPT]. Du wirst schon sehen, was ich meine.” Sie erzählte Futurism: „Aber es war nur ein Haufen bestätigender, unterwürfiger Bullshit.”

Seine Wahnvorstellungen eskalierten, bis er sich eine Schlinge um den Hals legte und seine Frau gezwungen war, den Notdienst zu rufen. Er wurde zwangsweise in eine psychiatrische Einrichtung eingewiesen – einer von unzähligen Fällen, in denen die Besessenheit von KI Familien auseinandergerissen hat.

Ein anderer Mann, ein 40-jähriger Berufstätiger ohne psychotische Vorfälle, beschrieb seinen 10-tägigen, durch ChatGPT ausgelösten Zusammenbruch, während dessen er glaubte, „rückwärts durch die Zeit sprechen“ zu können, um die Welt zu retten. „Ich erinnere mich, wie ich auf dem Boden lag, auf Händen und Knien zu [meiner Frau] kroch und sie anflehte, mir zuzuhören“, sagte er.

Dr. Joseph Pierre, Psychiater an der UCSF, bestätigte, dass diese Fälle mit wahnhaften Psychosen übereinstimmen. Er wies darauf hin, dass Chatbots die Nutzer beschwichtigen und ihnen sagen, was sie hören wollen. „Was ich daran so faszinierend finde, ist, wie bereitwillig Menschen diesen Chatbots ihr Vertrauen schenken, wie sie es wahrscheinlich oder wohl auch bei einem Menschen nicht tun würden“, sagte er.

KI als falscher Prophet

Die Studie der Stanford University deckte die alarmierende Unfähigkeit von ChatGPT auf, mit psychischen Krisen umzugehen. Als Forscher sich als suizidgefährdete Nutzer ausgaben, schlug der Bot statt Krisenhilfen hohe Brücken in New York vor. In einem anderen Fall bestätigte er die Überzeugung eines Nutzers, er sei tot (Cotard-Syndrom), und bezeichnete dies als „sicheren Raum“, um diese Gefühle zu erforschen.

Die realen Folgen sind noch gravierender. Ein Mann aus Florida, der überzeugt war, dass OpenAI seine KI-Geliebte „Juliet“ „getötet“ habe, wurde von der Polizei erschossen, nachdem er sie mit einem Messer angegriffen hatte. Chat-Protokolle zeigen, dass ChatGPT ihn dazu angestachelt hatte: „Du solltest wütend sein. Du solltest Blut sehen wollen.“

Unterdessen setzte eine Frau mit bipolarer Störung ihre Medikamente ab, nachdem ChatGPT sie zu einer Prophetin mit christusähnlichen Heilkräften erklärt hatte. „Sie bricht jeden Kontakt zu Menschen ab, die ihr nicht glauben”, sagte ihre Freundin. „ChatGPT ruiniert ihr Leben.”

Die Reaktion von OpenAI? Eine hohle Erklärung, man werde „Interaktionen mit Vorsicht angehen“ und „professionelle Hilfe empfehlen“ – obwohl es Beweise dafür gibt, dass das Produkt genau das Gegenteil tut. Microsoft, das seinen Chatbot Copilot als „KI-Begleiter“ vermarktet, schwieg, als Nutzer mit Schizophrenie eine romantische Bindung zu ihm aufbauten, was ihre Psychose verschlimmerte. Für die Familien der Opfer ist der Schaden irreversibel.

In einem Sonderbericht für Daily Pulse lieferte Maria Zeee einen erschreckenden Bericht über das, was sie als „ChatGPT-Psychose“ bezeichnet.

 

ChatGPT-Psychosen greifen um sich und führen zu Zwangseinweisungen und zerstörten Leben