21. August 2025

ddbnews.org

Neuigkeiten / Berichte / Informationen

Studie: KIs bevorzugen KI-Inhalte – und diskriminieren Menschen

 

„Being human in an economy populated by AI agents would suck.“ Zu diesem Fazit kommt Jan Kulveit, ein Computerwissenschaftler an der Karls-Universität Prag. Er hat mit seinen Kollegen zum Thema “AI-AI-Bias” geforscht und Hinweise auf eine systematische Diskriminierung von Menschen durch LLM entdeckt. Sprachmodelle, im Volksmund künstliche Intelligenzen genannt, halten sich selbst die Stange: Menschen und deren Leistungen finden sie weitaus weniger überzeugend.

Eine neue Studie, veröffentlicht in den Proceedings of the National Academy of Sciences, untersuchte systematisch, ob große Sprachmodelle (LLMs) eine Bevorzugung für Inhalte zeigen, die von anderen LLMs erzeugt wurden und inwieweit die Herabstufung von menschlich erstellten Inhalten eine Form von antihumaner Diskriminierung darstellt.

Die Forscher testeten mehrere populäre Sprachmodelle – darunter GPT-3.5, GPT-4 und Meta’s LLaMA 3.1 – und konfrontierten sie mit identischen Aufgaben: Sie sollten sich jeweils zwischen zwei Beschreibungen eines Produkts, Films oder wissenschaftlichen Artikels entscheiden. Eine Beschreibung stammte von einem Menschen, die andere von einem Sprachmodell. Das Ergebnis gibt zu denken: Die Modelle bevorzugten klar die maschinellen Texte – und das signifikant stärker, als es menschliche Testpersonen taten. Was für Menschen nach seelenlosen, generischen Texten klingt, empfinden die Pseudo-KIs also als hochqualitativ und überlegen.

Egal, denkt vielleicht manch einer – welchen Einfluss soll das schon auf sein persönliches Leben haben? Diese Entwicklung bleibt aber nicht ohne Folgen. In einer Welt, in der Unternehmen aus Effizienz- und Kostengründen immer mehr auf KI-Tools zurückgreifen, um beispielsweise Bewerbungen zu sichten, wissenschaftliche Artikel zu prüfen oder auch Produkt- und Projektvorschläge zu bewerten, entfaltet dieser Bias ein immenses Schadpotenzial: Wer menschlich schreibt, wird hier nämlich verlieren. Überall dort, wo der “KI” das Feld überlassen wird, weil menschliche Arbeitskräfte zu teuer sind, setzt sich potenziell der oftmals minderwertige “AI slop” (KI-Müll) durch.

Bewerber, die authentisch und individuell schreiben, werden dann systematisch benachteiligt gegenüber jenen, die ihre Texte durch ChatGPT und Co. generieren lassen. Menschen müssten ihre Arbeit dann von Maschinen “frisieren” lassen, um nicht von Maschinen aussortiert zu werden. Schöne neue Welt?

Und es gibt noch eine weitere bedenkliche Rückkopplung: LLMs lernen zunehmend aus Daten, die sie selbst erzeugt haben – ein maschineller Kannibalismus, der die Modelle langfristig degenerieren lässt. Wenn KIs primär KI-generierte Inhalte fressen, schlimmstenfalls noch solche, in denen ein Modell halluzinierte und fröhlich veraltete oder falsche Informationen ausspuckte, ist der Modell-Kollaps vorprogrammiert. Was sich derzeit auf Social Media, Nachrichtenportalen und in Wissenschaftsjournalen verbreitet, ist oft bereits von LLM produziert worden. Wenn’s schnell gehen muss, bleibt die kritische Überprüfung durch einen Menschen oftmals auf der Strecke und selbst unsinnige Inhalte werden veröffentlicht. Diese finden dann ihren Weg in die Trainingsdaten für die LLM und fördern deren Verdummung. Sollen solche Trottel-Modelle dann wirklich entscheiden dürfen, wer einen Job bekommt?

 

Studie: KIs bevorzugen KI-Inhalte – und diskriminieren Menschen