16. Januar 2026

ddbnews.org

produced by ae-radiostation.com

Privatsphäre für die Mächtigen, Überwachung für den Rest: Der geplante Tech-Regulierungsrahmen der EU geht zu weit

 

Von Elen Irazabal Arana und Nikolai G. Wenzel via TheDailyEconomy.org

Im vergangenen Monat beklagten wir Kaliforniens Frontier AI Act von 2025. Das Gesetz bevorzugt formale Regelkonformität gegenüber echtem Risikomanagement und schirmt zugleich Bürokraten und Gesetzgeber vor Verantwortung ab. Vor allem erzwingt es von oben verordnete Regulierungsnormen, statt Zivilgesellschaft und Branchenexperten zu ermöglichen, ethische Standards von unten nach oben zu erproben und zu entwickeln.

Man könnte dieses Gesetz als ein weiteres Beispiel für Kaliforniens interventionistische Neigung abtun. Doch einige amerikanische Politiker und Regulierer fordern bereits, es solle als „Vorlage zur Harmonisierung der bundes- und einzelstaatlichen Aufsicht“ dienen. Die andere Quelle für eine solche Vorlage wäre die Europäische Union (EU) – Grund genug also, die Regulierungen aus Brüssel genau im Blick zu behalten.

Die EU ist Kalifornien bei der Durchsetzung problematischer Top-down-Regulierung bereits weit voraus. Tatsächlich folgt der EU-Rechtsakt über Künstliche Intelligenz von 2024 dem allgemeinen Vorsorgeprinzip der EU. Wie der interne Thinktank des EU-Parlaments erklärt, „ermöglicht das Vorsorgeprinzip Entscheidungsträgern, vorsorgliche Maßnahmen zu ergreifen, wenn wissenschaftliche Belege zu Umwelt- oder Gesundheitsgefahren unsicher sind und viel auf dem Spiel steht“. Dieses Prinzip verleiht der EU enorme Macht bei der Regulierung unter Unsicherheit – statt Experimente innerhalb von Leitplanken aus Bußgeldern und Haftungsrecht zuzulassen (wie in den USA). Es erstickt ethisches Lernen und Innovation. Aufgrund des Vorsorgeprinzips und der damit verbundenen Regulierung leidet die EU-Wirtschaft unter höherer Marktkonzentration, höheren Regulierungskosten und geringerer Innovationskraft – verglichen mit einem Umfeld, das Experimente und vernünftiges Risikomanagement erlaubt. Es ist kaum verwunderlich, dass nur vier der weltweit 50 führenden Technologieunternehmen aus Europa stammen.

Von erstickter Innovation zu erstickter Privatsphäre

Neben dem Vorsorgeprinzip ist die zweite Triebkraft der EU-Regulierung die Durchsetzung von Rechten – allerdings durch selektive Auswahl aus der EU-Grundrechtecharta, wobei Rechte häufig mit anderen kollidieren. So wurde etwa die Datenschutz-Grundverordnung (DSGVO) von 2016 mit dem Ziel eingeführt, ein Grundrecht auf Schutz personenbezogener Daten zu sichern (technisch getrennt vom Recht auf Privatsphäre, was der EU deutlich mehr Eingriffsbefugnisse verleiht – ein Thema für Fachzeitschriften). Die DSGVO schränkte letztlich das Recht auf wirtschaftliche Freiheit ein.

Dieses Mal werden Grundrechte zur Rechtfertigung des EU-Vorgehens gegen sexuellen Kindesmissbrauch herangezogen. Wir alle schätzen Grundrechte, und wir alle verabscheuen Kindesmissbrauch. Doch über die Jahre wurden Grundrechte als stumpfe, aber mächtige Waffe genutzt, um die Regulierungsbefugnisse der EU auszuweiten. Die vorgeschlagene Verordnung zur Bekämpfung sexuellen Kindesmissbrauchs (CSA) ist keine Ausnahme. Außergewöhnlich ist vielmehr das Ausmaß des Eingriffs: Die EU schlägt vor, die Kommunikation europäischer Bürger zu überwachen und sie pauschal als potenzielle Bedrohungen zu behandeln, statt als geschützte Rede mit einem prima-facie-Recht auf Privatsphäre.

Seit dem 26. November 2025 verhandelt der EU-Bürokratieapparat über die Details der CSA. Im jüngsten Entwurf wurde die verpflichtende Durchleuchtung privater Kommunikation erfreulicherweise – zumindest formal – gestrichen. Doch es gibt einen Haken. Anbieter von Hosting- und zwischenmenschlichen Kommunikationsdiensten müssen identifizieren, analysieren und bewerten, wie ihre Dienste für sexuellen Kindesmissbrauch im Internet genutzt werden könnten, und anschließend „alle angemessenen Abhilfemaßnahmen“ ergreifen. Angesichts eines derart offenen Auftrags und der Haftungsdrohung könnten viele Anbieter zu dem Schluss kommen, dass der sicherste – und rechtlich umsichtigste – Weg, die Einhaltung der EU-Vorgaben nachzuweisen, der großflächige Scan privater Kommunikation ist.

Der CSA-Entwurf besteht darauf, dass Abhilfemaßnahmen, wo möglich, auf bestimmte Teile eines Dienstes oder bestimmte Nutzergruppen beschränkt werden sollen. Doch die Anreizstruktur weist in eine andere Richtung. Umfassende Überwachung könnte sich als einzige praktikable Option zur regulatorischen Konformität erweisen. Was heute als freiwillig dargestellt wird, droht morgen zur faktischen Pflicht zu werden.

In den Worten des dänischen Justizministers Peter Hummelgaard: „Jedes Jahr werden Millionen von Dateien geteilt, die den sexuellen Missbrauch von Kindern darstellen. Und hinter jedem einzelnen Bild und Video steht ein Kind, das dem schrecklichsten und grausamsten Missbrauch ausgesetzt war. Das ist völlig inakzeptabel.“ Niemand bestreitet die Schwere oder Verwerflichkeit des Problems. Und doch sollen unter diesem Narrativ die Telekommunikationsbranche und die europäischen Bürger gefährliche Maßnahmen zur Risikominderung hinnehmen, die voraussichtlich mit dem Verlust der Privatsphäre für Bürger und weitreichenden Überwachungsbefugnissen für den Staat einhergehen.

Die Kosten, so heißt es, seien nichts im Vergleich zum Nutzen.

Schließlich: Wer wollte nicht den sexuellen Missbrauch von Kindern bekämpfen? Es ist höchste Zeit, tief Luft zu holen. Kindesmissbraucher sollten hart bestraft werden. Das entbindet eine freie Gesellschaft jedoch nicht davon, andere zentrale Werte zu achten.

Doch halt – da ist noch mehr …

Umfassende Überwachung? Nun ja, nicht ganz umfassend

Trotz des moralischen Imperativs, Kinder zu schützen – eines Imperativs, der so stark ist, dass die EU bereit ist, andere Kernwerte dafür zu verletzen – führt der CSA-Vorschlag eine bequeme Ausnahme ein. Alles, was unter nationale Sicherheit fällt, sowie alle elektronischen Kommunikationsdienste, die nicht öffentlich zugänglich sind (also nur für gewählte Amtsträger und Bürokraten), bleiben vollständig unberührt. Private Chats von Bürgern sollen überprüft werden – die Gespräche derjenigen, die vorgeben, uns zu schützen, hingegen nicht.

Wie der Minister sagte: „Hinter jedem einzelnen Bild und Video steht ein Kind, das dem schrecklichsten und grausamsten Missbrauch ausgesetzt war.“ Wenn das für „jedes einzelne Bild und Video“ gilt, warum sollte es dann nicht auch für die Nachrichten gelten, die durch die Ausnahmen für nationale Sicherheit und nicht-öffentliche Dienste geschützt sind? Verflüchtigt sich der Horror etwa, wenn die Nutzer Politiker oder Bürokraten sind? Wird das Unakzeptable plötzlich akzeptabel, wenn es jene betrifft, die die Regeln schreiben?

In der Hierarchie der Rechte der EU schlägt der Schutz von Kindern die Privatsphäre. Doch der Schutz von Eurokraten schlägt den Schutz von Kindern. Am Ende eröffnet moderne Technologie Politikern beispiellose Möglichkeiten, Bürger zu überwachen – während sie sich selbst der Kontrolle entziehen.

Noch gibt es – soweit wir wissen – keine Diskussionen über die Einführung ähnlicher Maßnahmen in den USA. Doch von der Vermögenssteuer über KI-Regulierung bis hin zu den Ursprüngen des amerikanischen Verwaltungsstaates haben schlechte Ideen aus Europa die unangenehme Angewohnheit, den Weg über den Atlantik zu finden.

 

Privatsphäre für die Mächtigen, Überwachung für den Rest: Der geplante Tech-Regulierungsrahmen der EU geht zu weit