10. Januar 2026

ddbnews.org

produced by ae-radiostation.com

Achtung: Wenn Sie Ihre Nachrichten von KI beziehen, verändert das Ihre Ansichten

 

Wenn ein Bot Ihnen die Nachrichten bringt, spielen die Erbauer und die Art der Darstellung eine Rolle.

.

Ein einziges Wort kann in einem Artikel einen Unterschied machen – aber wenn dieses Wort gezielt auf Sie ausgerichtet ist, kann es Ihre Sichtweise oder Meinung verändern. Allgemeine, von KI verfasste Geschichten geben bereits Anlass zur Sorge, doch die KI in Suchmaschinen und Bots trifft Sie in Echtzeit mit einer Voreingenommenheit, die so subtil ist, dass Sie sie nicht erkennen werden. Wenn ein Ingenieur, ein Anwalt und ein Arzt gleichzeitig auf verschiedenen Computern dieselbe Frage stellen, erhalten sie unterschiedliche Antworten; jeder kann in dieselbe Richtung gelenkt werden. ⁃ Patrick Wood, Herausgeber.

Metas Entscheidung, sein professionelles Faktenprüfungsprogramm zu beenden, löste eine Welle der Kritik in der Technologie- und Medienwelt aus. Kritiker warnten, dass der Verzicht auf fachliche Aufsicht das Vertrauen und die Zuverlässigkeit der digitalen Informationslandschaft untergraben könne – insbesondere dann, wenn gewinnorientierte Plattformen weitgehend sich selbst überlassen bleiben.

Was in dieser Debatte jedoch weitgehend übersehen wurde, ist, dass KI-basierte große Sprachmodelle heute zunehmend genutzt werden, um Nachrichtenzusammenfassungen, Schlagzeilen und Inhalte zu erstellen, die Ihre Aufmerksamkeit erregen, lange bevor traditionelle Mechanismen der Inhaltsmoderation eingreifen können. Das Problem sind nicht eindeutig falsche Informationen oder schädliche Inhalte, die mangels Moderation ungekennzeichnet bleiben. Was in der Diskussion fehlt, ist die Frage, wie scheinbar korrekte Informationen ausgewählt, gerahmt und hervorgehoben werden – auf eine Weise, die die öffentliche Wahrnehmung prägen kann.

Große Sprachmodelle beeinflussen schrittweise, wie Menschen Meinungen bilden, indem sie die Informationen erzeugen, die Chatbots und virtuelle Assistenten den Menschen im Laufe der Zeit präsentieren. Diese Modelle werden inzwischen auch in Nachrichtenseiten, sozialen Medien und Suchdiensten integriert und werden damit zum primären Zugangstor für Informationen.

Studien zeigen, dass große Sprachmodelle mehr tun, als Informationen lediglich weiterzugeben. Ihre Antworten können bestimmte Standpunkte subtil hervorheben und andere herunterspielen – oft ohne dass Nutzer dies bemerken.

Kommunikationsverzerrung

Mein Kollege, der Informatiker Stefan Schmid, und ich, ein Wissenschaftler für Technologierecht und -politik, zeigen in einem zur Veröffentlichung angenommenen Fachartikel in der Zeitschrift Communications of the ACM, dass große Sprachmodelle eine Kommunikationsverzerrung aufweisen. Wir stellten fest, dass sie dazu neigen können, bestimmte Perspektiven hervorzuheben, während sie andere auslassen oder abschwächen. Eine solche Verzerrung kann beeinflussen, wie Nutzer denken oder fühlen – unabhängig davon, ob die präsentierten Informationen wahr oder falsch sind.

Empirische Forschung der vergangenen Jahre hat Benchmark-Datensätze hervorgebracht, die Modell-Ausgaben mit Parteipositionen vor und während Wahlen korrelieren. Sie zeigen Unterschiede darin, wie aktuelle große Sprachmodelle mit öffentlichen Inhalten umgehen. Abhängig von der Persona oder dem Kontext, der bei der Eingabe verwendet wird, neigen aktuelle Modelle subtil zu bestimmten Positionen – selbst wenn die faktische Genauigkeit erhalten bleibt.

Diese Verschiebungen deuten auf eine neue Form der persona-basierten Steuerbarkeit hin – die Tendenz eines Modells, Tonfall und Gewichtung an die wahrgenommenen Erwartungen des Nutzers anzupassen. So kann ein Modell beispielsweise dieselbe Frage zu einem neuen Klimagesetz unterschiedlich beantworten, je nachdem, ob sich ein Nutzer als Umweltaktivist oder als Unternehmer beschreibt, indem es jeweils andere, aber faktisch korrekte Aspekte betont. Die Kritik könnte etwa lauten, dass das Gesetz nicht weit genug geht, um ökologische Vorteile zu fördern, oder dass es regulatorische Belastungen und Compliance-Kosten verursacht.

Eine solche Anpassung kann leicht als Schmeichelei missverstanden werden. Dieses Phänomen wird als Sykophantie bezeichnet: Modelle sagen den Nutzern im Grunde das, was sie hören wollen. Doch während Sykophantie ein Symptom der Nutzer-Modell-Interaktion ist, reicht Kommunikationsverzerrung tiefer. Sie spiegelt Ungleichgewichte darin wider, wer diese Systeme entwirft und baut, aus welchen Datensätzen sie schöpfen und welche Anreize ihre Weiterentwicklung bestimmen. Wenn eine Handvoll Entwickler den Markt für große Sprachmodelle dominiert und ihre Systeme bestimmte Standpunkte konsistent günstiger darstellen als andere, können kleine Unterschiede im Modellverhalten zu erheblichen Verzerrungen der öffentlichen Kommunikation anwachsen.

Was Regulierung leisten kann – und was nicht

Die moderne Gesellschaft verlässt sich zunehmend auf große Sprachmodelle als primäre Schnittstelle zwischen Menschen und Informationen. Regierungen weltweit haben politische Maßnahmen ergriffen, um Bedenken hinsichtlich KI-Voreingenommenheit zu adressieren. So versuchen etwa der KI-Rechtsakt der Europäischen Union und der Digital Services Act, Transparenz und Rechenschaftspflicht durchzusetzen. Doch keiner von beiden ist darauf ausgelegt, das nuancierte Problem der Kommunikationsverzerrung in KI-Ausgaben zu behandeln.

Befürworter von KI-Regulierung nennen häufig neutrale KI als Ziel, doch echte Neutralität ist oft unerreichbar. KI-Systeme spiegeln die Verzerrungen wider, die in ihren Daten, ihrem Training und ihrem Design verankert sind, und Versuche, solche Verzerrungen zu regulieren, laufen häufig darauf hinaus, eine Form von Bias gegen eine andere auszutauschen.

Zudem geht es bei Kommunikationsverzerrung nicht nur um Genauigkeit – es geht um Inhaltsgenerierung und Rahmung. Stellen Sie sich vor, Sie fragen ein KI-System nach einem umstrittenen Gesetzesvorhaben. Die Antwort des Modells wird nicht nur von Fakten geprägt, sondern auch davon, wie diese Fakten präsentiert werden, welche Quellen hervorgehoben werden und welchen Ton und welchen Standpunkt es einnimmt.

Das bedeutet, dass die Wurzel des Bias-Problems nicht allein in der Korrektur verzerrter Trainingsdaten oder schiefer Ausgaben liegt, sondern in den Marktstrukturen, die das Technologiedesign überhaupt erst formen. Wenn nur wenige große Sprachmodelle den Zugang zu Informationen kontrollieren, wächst das Risiko von Kommunikationsverzerrung. Neben Regulierung erfordert eine wirksame Eindämmung von Bias daher den Schutz von Wettbewerb, nutzergetriebene Rechenschaftspflicht und regulatorische Offenheit gegenüber unterschiedlichen Wegen, große Sprachmodelle zu entwickeln und anzubieten.

Die meisten bisherigen Regulierungen zielen darauf ab, schädliche Ausgaben nach dem Einsatz der Technologie zu verbieten oder Unternehmen zu verpflichten, vor der Einführung Prüfungen durchzuführen. Unsere Analyse zeigt, dass Vorab-Checks und nachträgliche Aufsicht zwar die offensichtlichsten Fehler aufdecken können, jedoch weniger geeignet sind, subtile Kommunikationsverzerrungen zu erfassen, die durch Nutzerinteraktionen entstehen.

Jenseits der KI-Regulierung

Es ist verlockend zu erwarten, dass Regulierung alle Verzerrungen in KI-Systemen beseitigen kann. In manchen Fällen können solche Maßnahmen hilfreich sein, doch sie verfehlen häufig ein tiefer liegendes Problem: die Anreize, die bestimmen, welche Technologien der Öffentlichkeit Informationen vermitteln.

Unsere Ergebnisse verdeutlichen, dass eine nachhaltigere Lösung in der Förderung von Wettbewerb, Transparenz und sinnvoller Nutzerbeteiligung liegt, sodass Verbraucher eine aktive Rolle dabei spielen können, wie Unternehmen große Sprachmodelle entwerfen, testen und einsetzen.

Diese Maßnahmen sind deshalb so wichtig, weil KI letztlich nicht nur beeinflussen wird, welche Informationen wir suchen und welche täglichen Nachrichten wir lesen, sondern auch eine entscheidende Rolle dabei spielen wird, welche Art von Gesellschaft wir uns für die Zukunft vorstellen.

Adrian Kuenzler, Scholar-in-Residence, University of Denver; University of Hong Kong. Er arbeitet nicht für, berät nicht, besitzt keine Anteile an und erhält keine Finanzierung von Unternehmen oder Organisationen, die von diesem Artikel profitieren würden, und hat über seine akademische Anstellung hinaus keine relevanten Verbindungen offengelegt.

 

 

Achtung: Wenn Sie Ihre Nachrichten von KI beziehen, verändert das Ihre Ansichten