EU-Plan zur Zwangssuche in Messaging-Apps nach CSAM-Risiken führt zu Millionen falschen Treffern, warnen Experten

Ein umstrittener Vorstoß der EU-Abgeordneten, Messaging-Plattformen gesetzlich zu verpflichten, die privaten Nachrichten der Bürger nach Material für sexuellen Missbrauch von Kindern (CSAM) zu durchsuchen, könnte nach Warnungen von Hunderten von Sicherheits- und Datenschutzexperten in einem offenen Brief am Donnerstag zu Millionen falschen Treffern pro Tag führen.

Bedenken über den EU-Vorschlag gibt es seit der Vorstellung des CSAM-Scanning-Plans durch die Kommission vor zwei Jahren - unabhängige Experten, Abgeordnete des Europäischen Parlaments und sogar der eigene Datenschutzbeauftragte des Blocks gehören zu denen, die Alarm schlagen. Der EU-Vorschlag würde nicht nur von Messaging-Plattformen, die eine CSAM-Erkennungsanforderung erhalten, erfordern, nach bekannten CSAM zu suchen, sondern auch nicht spezifizierte Erkennungs-Scantechnologien einzusetzen, um unbekannte CSAM zu erkennen und Grooming-Aktivitäten zu identifizieren, was zu Vorwürfen führt, dass die Gesetzgeber sich in eine technologische Lösung auf Magie-Niveau verstricken.

Kritiker argumentieren, dass der Vorschlag das technologisch Unmögliche verlangt und das erklärte Ziel, Kinder vor Missbrauch zu schützen, nicht erreichen wird. Stattdessen wird argumentiert, dass er Chaos in der Internet-Sicherheit und der Privatsphäre der Internetnutzer anrichten wird, indem Plattformen gezwungen werden, eine umfassende Überwachung aller ihrer Nutzer durch den Einsatz risikoreicher, unerprobter Technologien wie der Client-seitigen Überprüfung einzusetzen.

...