IT-Sicherheitsexperten warnen vor Massenüberwachung durch Echtzeit-Scans

Chatkontrolle: Der Zweck heiligt nicht die Mittel

19. August 2022, 8:30 Uhr | Jörg Schröper
Patrycja Schrenk, Geschäftsführerin der PSW Group.
© PSW Group Consulting

Die EU-Kommission stellte vor Kurzem ihre Pläne für ein neues Gesetz zur Chatkontrolle vor. Ziel ist es, den Kampf gegen sexuellen Missbrauch Minderjähriger voranzutreiben. „Das ist zweifelsfrei dringend notwendig. Doch erreicht werden soll dies, indem die Privatsphäre unter anderem auf unser aller Mobiltelefone ausgehebelt wird. Ob jedoch die anlasslose Massenüberwachung auch unbescholtener Bürgerinnen und Bürger die Strafverfolgung in dieser Hinsicht wirklich weiterbringt, bezweifle ich stark“, kritisiert IT-Sicherheitsexpertin Patrycja Schrenk, Geschäftsführerin der PSW Group scharf.

Es sind erschreckende Zahlen, von denen die EU-Kommission berichtet: Allein im Jahr 2021 gab es 85 Millionen Meldungen von Bildern und Videos, die sexuellen Kindesmissbrauch darstellen – die Dunkelziffer liegt weitaus höher. Um Kindesmissbrauch mit neuen Methoden verfolgen zu können, präsentierte die EU-Kommission nun einen Gesetzesvorschlag zum Schutz von Kindern: Mit der Chatkontrolle – also dem Durchleuchten von Online-Kommunikation in Messengern, sozialen Netzwerken oder auch per E-Mail – will die EU Algorithmen einführen, die erkennen können, ob und wann Material zu Kindesmissbrauch online geteilt wird.

Um dies zu erreichen, könnte künstliche Intelligenz (KI) zum Einsatz kommen: Der Algorithmus erkennt bereits bekanntes Material anhand eines Hash-Werts, also eines einzigartigen Werts, der den Datei-Inhalt beschreibt. Ist den Algorithmen – und damit auch den Behörden – ein Bild bekannt, auf dem Kindesmissbrauch dargestellt wird, können alle Bilder damit abgeglichen werden. Um bisher nicht bekanntes Material erkennen zu können, sollen die Algorithmen mittels Machine Learning, also maschinellem Lernen, dazulernen können. Allerdings: „Das anlasslose Scannen von Kommunikationen im Internet ist ein großer Eingriff in die Privatsphäre“, mahnt jedoch die IT-Sicherheitsexpertin.
 
Welche technischen Lösungen eingesetzt werden sollen, ließ die EU-Kommission zudem offen. Aktuell sind zwei Verfahren im Gespräch. So sollen entweder Anbieter Nachrichten vor dem Verschlüsseln durchleuchten, wobei möglicherweise Nachrichten dann unverschlüsselt ausgeleitet werden. „Dieses Client-Side Scanning, kurz CSS, ist gefährlich für die IT-Sicherheit. Staatliche Stellen erhalten Zugang zu privaten Inhalten, sodass es sich um Abhöraktionen handelt. Viele Nutzergeräte weisen zudem Schwachstellen auf, die durch die Überwachungs- und Kontrollmöglichkeiten des CSS von weiteren Akteuren ausgenutzt werden können. CSS schwächt aber auch die Meinungsfreiheit und Demokratie. Einmal eingeführt, wird es schwer, sich gegen etwaige Ausweitungen zur Wehr zu setzen oder Kontrolle über den Missbrauch des Systems zu erhalten“, warnt Schrenk.
 
Ein zweites Verfahren wäre die Aushebelung der Verschlüsselung durch die Messenger-Dienste selbst. Hierzu will die EU die Anbieter zu einer Hintertür im Messenger verpflichten, sodass über diese auf die Inhalte des Smartphones zugegriffen werden kann. Davon betroffen sind Hostprovider, einschließlich Foto- und Videoplattformen, Zugangsprovider, App Store-Betreiber sowie interpersonelle Kommunikationsdienste wie Messenger und E-Mail. Diesen Diensten soll vorgeschrieben werden, Chats, Nachrichten sowie E-Mails mittels KI nach verdächtigen Inhalten zu durchleuchten. Wurden verdächtige Inhalte erkannt, sollen diese an Strafverfolgungsbehörden weitergeleitet werden, die dann ihrerseits prüfen, ob sich der Anfangsverdacht bestätigt hat.
 
„Problematisch bei den aktuell vorhandenen Technologien ist mitunter die hohe Fehlerquote: Auch irrtümliche Treffer müssen an die Strafverfolgungsbehörden gesendet werden, sodass harmlose Nachrichten, Chats, Videos oder Fotos von Unschuldigen gesichtet und unnötig verbreitet werden. Heißt für die Praxis: Menschen, die im geplanten EU-Zentrum arbeiten, müssen falsch-positives Material händisch aussortieren. Damit bekommen Ermittelnde auch legale Aufnahmen Minderjähriger zu sehen“, so Schrenk.

Falsch-positive Ergebnisse entstehen, weil die scannende KI den Kontext nicht versteht: Verbringt eine Familie den Sommer am Strand und schickt einander die entstandenen Fotos zu, landen diese unter Umständen in der EU-Zentrale und bei Europol. Privatsphäre sieht anders aus. Was folgt, könnte eine nie da gewesene Massenüberwachung aller Bürgerinnen und Bürger sein – anlasslos und vollautomatisiert. Damit würde das Recht auf Verschlüsselung ausgehebelt und das digitale Briefgeheimnis abgeschafft werden.

„Wir dürfen uns auch nichts vormachen: Maschinell nach Grooming-Versuchen oder derzeit unbekannten Missbrauchsdarstellungen suchen zu wollen, ist rein experimentell – auch, beziehungsweise gerade, unter Verwendung von KI. Denn die Algorithmen, die dabei eingesetzt werden, sind weder der Öffentlichkeit noch der Wissenschaft zugänglich. Und eine Offenlegungspflicht ist in dem Gesetzentwurf nicht zu  finden. Kommunikationsdienste, die für Grooming-Versuche missbraucht werden könnten – und darunter fallen alle Kommunikationsdienste – müssen Altersverifikationen mit Nutzerinnen und Nutzern durchführen. Das geht nur, wenn diese sich ausweisen. Damit wird die anonyme Kommunikation de facto unmöglich gemacht, was gerade Menschenrechtler, Whistleblower, politisch Verfolgte, Journalisten oder marginalisierte Gruppen bedrohen könnte“, kritisiert Schrenk scharf.


  1. Chatkontrolle: Der Zweck heiligt nicht die Mittel
  2. „Ich habe aber nichts zu verbergen“: Falsch!

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu PSW Group

Weitere Artikel zu Daten-Management

Weitere Artikel zu Daten-Analyse

Weitere Artikel zu CARLO GAVAZZI GmbH

Weitere Artikel zu M & W Informationssysteme

Weitere Artikel zu b.com Computer AG

Weitere Artikel zu BHS Binkert GmbH Distribution

Matchmaker+