23. März 2026

ddbnews.org

produced by ae-radiostation.com

„TRUMP AMERICA AI Act“ hebt Section 230 auf, erweitert Haftung und etabliert zentralisierte bundesweite Kontrolle über KI-Systeme

 

Substack und ähnliche Plattformen könnten rechtlicher Haftung für nutzergenerierte Inhalte ausgesetzt sein, da die Aufhebung von Section 230 ihren zentralen Haftungsschutz beseitigt und strengere Inhaltskontrollen erforderlich macht, um Klagen zu vermeiden.

Jon Fleetwood

Die US-Senatorin Marsha Blackburn hat einen 291-seitigen Gesetzesrahmen vorgestellt, der Section 230 aufheben, die Haftung im gesamten Ökosystem der künstlichen Intelligenz ausweiten und ein einheitliches bundesweites Regelwerk dafür schaffen würde, wie KI-Systeme in den Vereinigten Staaten entwickelt, eingesetzt und kontrolliert werden.

Der Vorschlag – mit dem Titel TRUMP AMERICA AI Act – wird als innovations- und sicherheitsfreundliche Maßnahme präsentiert, die darauf abzielt, „Kinder, Kreative, Konservative und Gemeinschaften zu schützen“ und gleichzeitig die Dominanz der USA im globalen KI-Wettlauf zu sichern.

Doch die tatsächliche Struktur des Gesetzes zeigt ein umfassendes System, das regulatorische Autorität zentralisiert, die rechtliche Haftung für Plattformen erweitert und neue Mechanismen zur Kontrolle von KI-Ausgaben und digitalen Informationsflüssen schafft.

Für unabhängige Journalisten und Verlage, die auf Plattformen wie Substack arbeiten, verlagert die Aufhebung von Section 230 das Risiko nach oben.

Plattformen wären nicht länger vor Haftung für nutzergenerierte Inhalte geschützt, was bedeutet, dass sie bewerten müssten, ob das Hosten bestimmter Berichterstattung sie Klagen aussetzen könnte.

In der Praxis erzeugt dies Druck, Inhalte einzuschränken oder herabzustufen, die als schädlich dargestellt werden könnten – insbesondere Berichte über öffentliche Gesundheit, Regierungsprogramme oder andere sensible Themen – unabhängig davon, ob sie belegt oder korrekt sind.

Aufhebung von Section 230 beseitigt zentralen Haftungsschutz

Im Zentrum des Gesetzes steht die vollständige Aufhebung von Section 230 des Communications Act – lange Zeit als rechtliche Grundlage des modernen Internets angesehen.

Section 230 schützt Online-Plattformen wie Substack davor, als Herausgeber nutzergenerierter Inhalte behandelt zu werden, und bewahrt sie vor den meisten zivilrechtlichen Haftungsansprüchen für Nutzerbeiträge.

Der Blackburn-Rahmen würde diesen Schutz vollständig aufheben.

An seine Stelle treten mehrere neue Haftungswege, die nicht nur von Bundesbehörden, sondern auch von Generalstaatsanwälten der Bundesstaaten und privaten Akteuren durchgesetzt werden können.

Plattformen und KI-Entwickler könnten rechtlich belangt werden wegen „fehlerhaftem Design“, „unterlassener Warnung“ oder der Entwicklung von Systemen, die als „unangemessen gefährlich“ eingestuft werden.

Die praktische Folge ist: Sobald der Haftungsschutz entfällt, können Plattformen Inhalte nicht mehr neutral hosten.

Sie müssen Inhalte aktiv steuern und einschränken – oder riskieren Klagen.

„Sorgfaltspflicht“-Standard schafft subjektiven Durchsetzungsmechanismus

Das Gesetz führt eine „Sorgfaltspflicht“ für KI-Entwickler ein, die verlangt, „vernünftigerweise vorhersehbare Schäden“ durch ihre Systeme zu verhindern.

Diese Formulierung ist weit gefasst und nicht klar definiert.

Was als „Schaden“ gilt, was „vorhersehbar“ ist und wann ein KI-System als „mitverursachender Faktor“ gilt, ist nicht festgelegt.

Diese Fragen werden nachträglich von Behörden, Gerichten und Klägern entschieden.

Dadurch entsteht ein rückwirkendes Durchsetzungsmodell, bei dem KI-Ausgaben auf Grundlage sich wandelnder Interpretationen als rechtswidrig eingestuft werden können – was Unternehmen dazu zwingt, Inhalte vorsorglich einzuschränken.

Bundesweites „Ein-Regelwerk“-Modell ersetzt staatliche Vielfalt

Blackburns Entwurf betont wiederholt die Notwendigkeit, das „Flickwerk“ einzelstaatlicher Gesetze zu beseitigen und durch einen einheitlichen nationalen Standard zu ersetzen.

Diese Verschiebung bündelt die Macht auf Bundesebene und stärkt Behörden wie die Federal Trade Commission, das Justizministerium, das National Institute of Standards and Technology (NIST) und das Energieministerium bei der Festlegung und Durchsetzung von KI-Regeln im ganzen Land.

Statt unterschiedlicher lokaler Ansätze etabliert das Gesetz ein zentralisiertes Governance-Modell für KI.

Algorithmische Systeme und Inhaltsverbreitung unter Regulierung

Unter dem Abschnitt „Schutz von Kindern“ richtet sich das Gesetz direkt gegen Designmerkmale digitaler Plattformen, darunter:

  • Personalisierte Empfehlungssysteme
  • Endlos-Scrolling und Autoplay
  • Benachrichtigungen und Engagement-Anreize

Plattformen müssten diese Funktionen anpassen oder einschränken, um Schäden wie Angstzustände, Depressionen und „zwanghafte Nutzung“ zu verhindern.

Dies geht über Inhaltsmoderation hinaus.

Es reguliert, wie Informationen sortiert, verbreitet und verstärkt werden – und stellt zentrale algorithmische Systeme unter bundesweite Aufsicht.

Wasserzeichen und Herkunftsnachweise für Inhalte

Das Gesetz beauftragt das NIST mit der Entwicklung nationaler Standards für:

  • Herkunftsnachweise von Inhalten
  • Wasserzeichen für KI-generierte Medien
  • Erkennung synthetischer oder veränderter Inhalte

Außerdem müssen KI-Anbieter ermöglichen, dass Urheber Herkunftsdaten an Inhalte anhängen, deren Entfernung verboten wird.

Diese Maßnahmen schaffen eine technische Infrastruktur zur Identifikation und Nachverfolgung digitaler Inhalte.

Neue Haftung für Urheberrecht und Persönlichkeitsrechte

Der Entwurf stellt klar, dass die Nutzung urheberrechtlich geschützter Inhalte zum Training von KI-Modellen nicht als „Fair Use“ gilt – und eröffnet damit breite Klagewege gegen KI-Entwickler.

Zudem wird Haftung für die unautorisierte Nutzung von Stimme oder Abbild einer Person in KI-generierten Inhalten eingeführt – und auf Plattformen ausgeweitet, die solche Inhalte hosten, wenn sie Kenntnis von der fehlenden Zustimmung haben.

Verpflichtende Arbeitsmarktüberwachung und Risikoanalyse

Unternehmen müssen vierteljährlich Daten zu KI-bedingten Auswirkungen auf Arbeitsplätze melden, darunter Entlassungen, Einstellungsänderungen und durch Automatisierung wegfallende Stellen.

Zudem wird ein bundesweites Programm zur Bewertung fortgeschrittener KI eingerichtet, das Risiken überwacht wie:

  • Kontrollverlust über Systeme
  • Militarisierung von KI

Nationale KI-Infrastruktur und öffentlich-private Kontrolle

Das Gesetz sieht die Einrichtung einer National Artificial Intelligence Research Resource (NAIRR) vor – einer gemeinsamen Infrastruktur mit:

  • Rechenleistung
  • großen Datensätzen
  • Forschungswerkzeugen

Diese wird öffentlich-privat organisiert und zentral gesteuert.

Struktureller Wandel: Haftung als Steuerungsinstrument

Obwohl das Gesetz als Vereinfachung der Regulierung dargestellt wird, liegt sein Kern nicht in Deregulierung, sondern in der Ausweitung von Haftung.

Durch die Abschaffung von Section 230 entsteht ein System, in dem Plattformen und KI-Entwickler ständig rechtliche Risiken bewerten müssen.

Das verlagert Kontrolle von direkter staatlicher Zensur hin zu Selbstregulierung unter Klagedruck.

Fazit

Blackburns KI-Rahmen verändert grundlegend die rechtlichen Bedingungen, unter denen Informationen online existieren dürfen.

Durch die Abschaffung von Section 230 wird das Risiko vom Autor auf die Plattform verlagert.

Unternehmen wie Substack sind damit nicht mehr nur Host – sie sind haftbar.

In diesem Umfeld zählt nicht mehr nur, ob Inhalte korrekt sind, sondern ob sie rechtliche Risiken auslösen könnten.

Die vorhersehbare Folge ist präventive Einschränkung: geringere Reichweite, strengere Regeln oder Entfernung potenziell riskanter Inhalte.

Für unabhängige Journalisten verlagert sich der Druck auf die Distribution.

Kontroverse Inhalte müssen nicht verboten werden –
es reicht, wenn sie für Plattformen zu riskant werden.

Kontrolle über Haftung wird zur Kontrolle über Sichtbarkeit.