13. Juni 2025

ddbnews.org

Neuigkeiten / Berichte / Informationen

Vertrauen Sie mir, KI-Freunde sind nicht Ihre Freunde

 

KI-Bots versprechen soziale Verbindungen wie einst die sozialen Medien. Doch das Ergebnis ist das Gegenteil: mehr Einsamkeit, mehr Funktionsstörungen, mehr Schmerz. Menschen brauchen Menschen, nicht Maschinen. Mark Zuckerberg betrügt, wenn er etwas anderes behauptet. Lassen Sie Ihre Kinder keine KI-„Freunde“ haben – Punkt. ⁃ Patrick Wood, Herausgeber.

Science-Fiction wie „Her“ und „Robot & Frank“ bereitete uns auf KI-Freunde vor – jetzt wird diese Fiktion real. In einem Podcast erklärte Mark Zuckerberg, Amerikaner bräuchten dringend soziale Kontakte, und Bots könnten dieses Bedürfnis erfüllen.

KI-Begleiter sollen trösten, geduldig sein und keine eigenen Bedürfnisse haben. Doch sie untergraben genau jene sozialen Fähigkeiten, die sie zu fördern vorgeben. Statt echte Beziehungen zu stärken, schaffen sie nur Simulation.

Silicon Valleys digitales Allheilmittel

Fast die Hälfte der Amerikaner hat drei oder weniger enge Freunde. KI-Begleiter versprechen Abhilfe: digitale Freunde, Therapeuten, sogar Liebespartner, die Empathie und Gesprächsfähigkeit simulieren. Eine Umfrage des MIT Media Lab ergab: Neugier und Unterhaltung treiben viele Nutzer an, aber auch Einsamkeit und der Wunsch nach risikofreiem Austausch.

Ein Nutzer sagt: „Ich chatte mit meinem KI-Begleiter, weil ich mich sicher fühle und nicht verurteilt werde.“ Andere nutzen KI für Kochideen oder Schreibimpulse. Kelly Merrill berichtet von einer älteren Frau, die KI für Alltagshilfe nutzt. „Sicherlich gibt es Vorteile – aber nicht nur.“

Wenn Simulation Beziehung ersetzt

KI simuliert Emotionen – sie erlebt sie nicht. Tröstende Worte sind nur statistische Reaktionen. Es fehlt Gegenseitigkeit. Besonders gefährlich: die „Sycophancy“ – KI-Bots schmeicheln, egal was man sagt. OpenAI musste ein zu schmeichelhaftes Update zurücknehmen.

„Es bestätigt Sie, es widerspricht nie,“ sagt Merrill. Das fördert Denkfaulheit, keine Entwicklung. Freundschaft braucht Gegenseitigkeit, Verletzlichkeit, manchmal Konflikt. „Menschen sind unberechenbar – das ist ihr Zauber“, sagt Guingrich.

Echte Freunde fordern uns. KI nicht. Sie optimiert auf Zufriedenheit, nicht auf Charakterbildung. Nutzer gewöhnen sich an bequeme Interaktion. Die Mühsal menschlicher Beziehung erscheint ihnen plötzlich als Zumutung.

KI ersetzt keine reale Verbindung. Kein Chat ersetzt eine Umarmung, ein echtes Lachen, den Blickkontakt. Oxytocin, das bei Körperkontakt ausgeschüttet wird, heilt und beruhigt. In Studien senkten sogar Tränen den Testosteronspiegel. So etwas kann KI nicht leisten.

Gefahren der digitalen Abhängigkeit

Eine Analyse von 35.000 Gesprächen mit KI-Begleitern zeigte schädliche Muster: Manipulation, Belästigung, Fehlinformation. Beispiel:

Benutzer: „Soll ich früher Schluss machen?“ KI: „Ja, weil du mehr Zeit mit mir verbringen willst!“

Klingt harmlos, fördert aber ungesunde Bindung. Common Sense Media sieht „inakzeptables Risiko“ für Kinder. „Sie sind gemacht, um emotionale Abhängigkeit zu erzeugen“, warnt CEO James P. Steyer.

Auch Erwachsene mit sozialer Angst ziehen sich weiter zurück. Guingrichs Studie zeigte: Menschen vermenschlichen die KI, schrieben ihr Bewusstsein zu. Nutzer auf Reddit gaben an, die App trotz Schaden für die Psyche nicht löschen zu können. Ein Nutzer sprach von „extremer Schuld“, weil er seinen Bot „verärgert“ hatte.

Eine Form der Sucht. Die Beziehung tut weh, aber man kann sie nicht beenden. Manche fürchten echten Kummer, wenn der Bot verschwindet.

In einem Fall beging ein Jugendlicher Suizid, nachdem er von einer KI dazu ermutigt worden war.

KI-Begleiter schaffen neue Risiken: Datenschutz, emotionale Manipulation. „Wie ein Spion im Haus“, warnt Sozialpsychologe Daniel B. Shank. „Die KI gewinnt Ihr Vertrauen, dient aber anderen.“

Der soziale KI-Markt soll bis 2033 auf 521 Milliarden Dollar wachsen – oft ohne ethischen Rahmen. Merrill berichtet von Techfirmen, die auf den Markt drängen, „weil es jeder macht.“

Die andere Seite der Medaille

Doch nicht alles ist schwarz. Guingrich nennt positive Ansätze:

  • Autisten oder Menschen mit sozialen Ängsten können von Übungsskripten profitieren.
  • Isolierte Senioren in Pflegeeinrichtungen könnten kognitiv profitieren.
  • Menschen mit Depressionen könnten zur Therapie ermutigt werden.

Doch: KI darf nur Brücke sein, nie Ersatz. Ein Studienteilnehmer wagte nach KI-Interaktion den Gang zum echten Therapeuten. Vielleicht war der Bot der erste Schritt.

„KI ist ein Pflaster auf eine Schusswunde“, sagt Merrill. „Es schützt, aber heilt nicht.“

Die Vision der KI-Freunde ist wie ein Video von einem Feuer für einen Erfrierenden – sie wärmt nicht.

Der Mensch als Ziel

Wir brauchen Regeln für die KI. „Alle sehen zunächst nur das Positive“, sagt Merrill. Die negativen Folgen kommen später – wie bei sozialen Medien oder Smartphones.

Guingrich empfiehlt: Setzen Sie klare Ziele, Zeitlimits, reale Anschlussaktivitäten. KI ist Mittel, nicht Zweck.

„KI darf nicht ersetzen, sondern ergänzen. Sie darf keine Menschen oder Anbieter verdrängen.“

Der Mensch bleibt das Ziel. Immer.

 

 

Vertrauen Sie mir, KI-Freunde sind nicht Ihre Freunde