16. Januar 2026

ddbnews.org

produced by ae-radiostation.com

Neue Studie zeigt, wie soziale Netzwerke legale Inhalte entfernen

 

Wenn Plattformen löschen, was das Zeug hält. Was nicht ins Staats-narrativ passt, muss weg.

Europa hat sich in den vergangenen Jahren auf einen klaren politischen Konsens verständigt: Soziale Netzwerke seien Brutstätten von Hassrede, Desinformation und Extremismus. Gesetze wie das deutsche NetzDG und der europäische Digital Services Act (DSA) sollten Abhilfe schaffen. Doch eine groß angelegte Analyse der Löschpraxis auf Facebook und YouTube zeichnet ein Bild, das diese Erzählung ins Wanken bringt. Die Zahlen zeigen: Gelöscht wird massiv – aber größtenteils nicht das, was illegal ist.

Fast alles gelöscht – fast alles legal

Die Untersuchung wertete über 1,27 Millionen Kommentare aus, die auf großen politischen und medialen Facebook-Seiten sowie YouTube-Kanälen in Deutschland, Frankreich und Schweden veröffentlicht wurden. Davon wurden 43.497 Kommentare gelöscht, was zunächst moderat klingt: rund 3,4 Prozent aller Beiträge.

Doch entscheidend ist nicht, wie viel gelöscht wird, sondern was.

Das Ergebnis ist ernüchternd:
Je nach Land und Plattform waren zwischen 87,5 und 99,7 Prozent der gelöschten Kommentare rechtlich zulässig. In Deutschland erreichte dieser Wert einen Extrempunkt:

  • 99,7 Prozent der gelöschten Facebook-Kommentare
  • 98,9 Prozent der gelöschten YouTube-Kommentare

waren nach nationalem Recht legal.

Das bedeutet: Nahezu alles, was verschwand, hätte bleiben dürfen.

Deutschland als Sonderfall der Überlöschung

Deutschland sticht nicht nur bei der Legalität der gelöschten Inhalte hervor, sondern auch bei der Intensität der Moderation. Auf YouTube wurden dort 11,46 Prozent aller Kommentare gelöscht – mehr als doppelt so viele wie in Schweden (4,07 Prozent) und deutlich mehr als in Frankreich (7,23 Prozent). Auf Facebook liegt Deutschland mit 0,58 Prozent zwar niedriger, doch auch hier ist der Anteil legaler Löschungen extrem hoch.

Diese Diskrepanz legt nahe, dass nicht gesellschaftliche Verrohung, sondern regulatorischer Druck das Verhalten der Plattformen prägt. Hohe Strafandrohungen führen dazu, dass im Zweifel gelöscht wird – nicht differenziert geprüft.

Gelöscht wird vor allem Meinung

Besonders brisant ist die qualitative Analyse der entfernten Inhalte. Im Durchschnitt bestanden über 56 Prozent der gelöschten Kommentare aus reinen Meinungsäußerungen: politische Positionen, Werturteile, Kritik oder Zustimmung – ohne Beleidigung, ohne Gewaltaufruf, ohne strafbaren Inhalt.

Illegale Inhalte machten nur einen kleinen Teil aus:

  • In Deutschland: 0,3 Prozent (Facebook) und 1,1 Prozent (YouTube)
  • In Schweden: 5,4 Prozent auf beiden Plattformen
  • In Frankreich: 7,9 Prozent (Facebook) und 12,5 Prozent (YouTube)

Mit anderen Worten: Selbst dort, wo am meisten Illegales gefunden wurde, war die große Mehrheit der Löschungen rechtlich nicht gedeckt.

Intransparenz als systemisches Problem

Hinzu kommt ein strukturelles Demokratiedefizit: Nur 25 Prozent der untersuchten Seiten und Kanäle legten offen, nach welchen zusätzlichen Regeln sie Kommentare moderieren. Für Nutzer bleibt meist unklar:

  • wer den Kommentar gelöscht hat,
  • auf welcher Grundlage,
  • und ob es sich um eine Plattformentscheidung, Seitenmoderation oder automatisierte Entfernung handelt.

Diese Unklarheit erzeugt Unsicherheit – und Unsicherheit erzeugt Selbstzensur. Wer nicht weiß, wo die Grenze verläuft, spricht vorsichtiger oder gar nicht mehr.

Plattformen als Richter ohne Rechtsstaat

Das eigentliche Problem liegt in der Machtverlagerung. Der Staat setzt vage Ziele („Hass bekämpfen“), droht mit hohen Strafen – und überlässt die Umsetzung privaten Konzernen. Diese handeln nicht nach rechtsstaatlicher Logik, sondern nach Risikoabwägung. Für Plattformen ist Überlöschung rational: Wer zu viel löscht, riskiert wenig. Wer zu wenig löscht, riskiert Bußgelder, politische Angriffe und öffentliche Skandale.

So entsteht faktisch eine privatisierte Vorzensur, ausgelöst durch staatliche Regulierung, aber ohne gerichtliche Kontrolle, ohne Transparenz, ohne wirksame Rechtsmittel.

Der DSA verschärft das Risiko

Mit dem Digital Services Act wird dieses Modell nun auf die gesamte EU ausgeweitet. Zwar verspricht das Gesetz mehr Transparenz und Nutzerrechte, doch die grundlegende Dynamik bleibt bestehen: hoher politischer Druck, asymmetrische Risiken, unklare Begriffe. Für Plattformen bleibt es sicherer, zu viel zu löschen als zu wenig.

Besonders problematisch ist, dass bereits offen darüber diskutiert wurde, den DSA in Zeiten sozialer Unruhe zur Einschränkung oder Abschaltung von Plattformen zu nutzen. Was heute mit Hassrede begründet wird, kann morgen politisch instrumentalisiert werden.

Fazit: Ordnung ohne Freiheit

Die Zahlen zeichnen ein klares Bild: Der digitale Raum wird nicht sauberer, sondern ärmer. Nicht Extremisten verschwinden, sondern Debatten. Nicht Hass wird gezielt bekämpft, sondern Meinung pauschal gefiltert.

Demokratie lebt vom Aushalten. Von Reibung, Widerspruch und Zumutung. Wenn legale Meinungsäußerung massenhaft gelöscht wird, verschiebt sich die Grenze des Sagbaren – leise, technisch, scheinbar unpolitisch.

Doch genau darin liegt die Gefahr: Freiheit stirbt nicht mit einem Verbot. Sie stirbt, wenn niemand mehr wagt, sie zu nutzen.

 

 

Neue Studie zeigt, wie soziale Netzwerke legale Inhalte entfernen