Apple will Bilder von Kindsmissbrauch auf den iPhones aufspüren

Fokus

NZZ – Ruth Fulterer – Apple will Bilder von Kindsmissbrauch auf den iPhones aufspüren – und dabei den Datenschutz beibehalten,

Eine spezielle Software soll den Spagat möglich machen und Kinderpornografie herausfiltern, obwohl die Bilder der Nutzer verschlüsselt bleiben. Ausserdem sollen Eltern gewarnt werden, wenn ihre minderjährigen Kinder Nacktfotos erhalten oder verschicken.

Im vergangenen Jahr wurden dem amerikanischen Zentrum für vermisste Kinder (NCMEC) 21,4 Millionen kinderpornografische Aufnahmen durch automatisierte Erkennungssysteme gemeldet. Mehr als 20 Millionen der Meldungen stammten von Facebook. Von Apple kamen dagegen nur 265 Meldungen.
Das liegt nicht daran, dass auf Facebooks Servern viel mehr solches Material läge, sondern an Apple. Das Unternehmen schützt die Privatsphäre seiner Nutzer besonders gut. Wenn Nutzer Bilder verschlüsselt in die iCloud laden, hat das Unternehmen keinen Zugriff darauf. Wegen seiner harten Haltung beim Datenschutz stand Apple lange im Konflikt mit amerikanischen Strafverfolgern. Nun soll Technologie den Spagat schaffen und den Schutz der Privatsphäre erhalten, ohne das Aufspüren von Verbrechern zu verhindern.
Ein Filter aus Verschlüsselung und künstlicher Intelligenz

Die Technologie, die das ermöglichen soll, wird in den nächsten Monaten zunächst bei Nutzern in den Vereinigten Staaten eingeführt. Sie funktioniert wie folgt:

Von jedem Bild, das in die Apple-Cloud hochgeladen wird, wird auf dem iPhone zuerst eine Art digitaler Fingerabdruck erzeugt: Eine einzigartige Kombination aus Buchstaben und Zahlen, die man «Hash» nennt. Es ist unmöglich, von einem Hash auf das Ursprungsbild zu schliessen. Wenn sich auch nur ein Pixel des Bilds ändert, sieht der zugehörige Hash im Normalfall ganz anders aus. Apples neue Technologie namens «Neural Hash» soll hingegen aus bearbeiteten Bildern denselben Hash wie das Originalbild erzeugen.

Im nächsten Schritt wird dieser Hash mit den Hashes von kinderpornografischen Bildern verglichen. Die Kinderschutzorganisation NCMEC unterhält, gemeinsam mit den Behörden, eine Datenbank solcher Bilder. Die Liste der problematischen Hashes ist direkt auf den Nutzerhandys gespeichert, dort läuft auch der Abgleich.

Findet das System eine Übereinstimmung, fügt es an das verschlüsselte Bild in der Cloud eine verschlüsselte Anmerkung hinzu. Darauf ist gespeichert, zu welchem Bild der Datenbank dieser Hash passt, sowie visuelle Informationen über das Bild. Ohne das Wissen des Nutzers erhält Apple eine erste Meldung.

Erst nach einer bestimmten Zahl solcher Meldungen für einen Nutzer kann Apple diese Informationen für ein bestimmtes Bild entschlüsseln, das Bild selbst bleibt dabei unsichtbar. In solchen Fällen würden Mitarbeiter kontrollieren, mit welchen Bildern der Datenbank der Hash übereinstimmt, das Nutzerkonto sperren und einen Bericht an die Kinderschutz-Organisation schicken, schreibt Apple in seiner Veröffentlichung zum Thema.

Wie viele Meldungen es dazu braucht, verrät das Unternehmen nicht, es verspricht lediglich, dass das System nur in einem von einer Billion Fälle unbegründet ausschlagen (false positive) würde. Wenn ein Nutzer zu Unrecht gesperrt würde, könne er das melden, um seinen Account zurückzubekommen.

Kritik von Datenschützern

Während Kinderschutzorganisationen den Schritt begrüssen, haben Datenschützer Bedenken. Tatsächlich tut die Technologie zwar viel, um den Datenschutz hochzuhalten. Doch sie birgt trotzdem Gefahren.

Der offensichtlichste Weg, das System zu missbrauchen, wäre, in die Hash-Liste problematischer Bilder nicht nur solche von Kindesmissbrauch aufzunehmen, sondern auch von politischen oder religiösen Symbolen oder Memes. Theoretisch macht es diese Technologie möglich, die Bildspeicher der Nutzer auch nach solchen Bildern zu durchforsten. Welche Bilder in der Datenbank aufgenommen sind, ist nicht öffentlich bekannt.

Sicherheitsexperten fürchten zudem, dass die «Neural Hash»-Technologie weniger sicher sein könnte als herkömmliche Kryptografie. Durch die neue Methode sollen nicht nur identische, sondern auch sehr ähnliche Bilder erkannt werden, zum Beispiel geschnittene oder solche mit Wasserzeichen. Experten warnen davor, dass es eine Möglichkeit geben könnte, aus dem Hash auf das Bild zu schliessen. Weil der betreffende Algorithmus nicht öffentlich einsehbar ist, gibt es dazu keine unabhängigen Einschätzungen.
Nacktfotofilter für Kinderhandys
Apple hat noch eine weitere Neuerung für den Kinderschutz angekündigt. Wer über die Suchfunktion oder Siri kinderpornografische Inhalte sucht, wird gewarnt. Darüber hinaus gibt Apple Eltern künftig die Möglichkeit, eine Warnung zu erhalten, wenn ihr Kind in Apples Chatdienst iMessage Nacktfotos erhält oder verschickt. Auch am Handy des Kindes erscheint eine Warnung und die Frage, ob es so ein Bild wirklich schicken oder empfangen möchte. Die Nacktheit in den Bildern wird von Software auf dem Gerät erkannt, die mit künstlicher Intelligenz trainiert worden ist. Der Konzern erfährt jeweils nichts von den Warnungen.

Auch hier gäbe es Missbrauchsmöglichkeiten, mahnt etwa der Kryptografieexperte Matthew Green von der Johns-Hopkins-Universität in Maryland gegenüber dem IT-Magazin «The Register»: «Apple ist der einzige Anbieter, der mit iMessage noch grossflächig die Möglichkeit gibt, Ende-zu-Ende-verschlüsselte Nachrichten zu verschicken.» China werde die Technologie nutzen wollen, um etwa die Bilder von gesuchten Regimekritikern herauszufiltern und so auf deren Aufenthaltsort zu schliessen, gibt er zu bedenken.

Der ganze Artikel auf NZZ

Sponsoring