NZZ – Ruth Fulterer – Apple will Bilder von Kindsmissbrauch auf den iPhones aufspüren – und dabei den Datenschutz beibehalten,
Eine spezielle Software soll den Spagat möglich machen und Kinderpornografie herausfiltern, obwohl die Bilder der Nutzer verschlüsselt bleiben. Ausserdem sollen Eltern gewarnt werden, wenn ihre minderjährigen Kinder Nacktfotos erhalten oder verschicken.
Die Technologie, die das ermöglichen soll, wird in den nächsten Monaten zunächst bei Nutzern in den Vereinigten Staaten eingeführt. Sie funktioniert wie folgt:
Von jedem Bild, das in die Apple-Cloud hochgeladen wird, wird auf dem iPhone zuerst eine Art digitaler Fingerabdruck erzeugt: Eine einzigartige Kombination aus Buchstaben und Zahlen, die man «Hash» nennt. Es ist unmöglich, von einem Hash auf das Ursprungsbild zu schliessen. Wenn sich auch nur ein Pixel des Bilds ändert, sieht der zugehörige Hash im Normalfall ganz anders aus. Apples neue Technologie namens «Neural Hash» soll hingegen aus bearbeiteten Bildern denselben Hash wie das Originalbild erzeugen.
Im nächsten Schritt wird dieser Hash mit den Hashes von kinderpornografischen Bildern verglichen. Die Kinderschutzorganisation NCMEC unterhält, gemeinsam mit den Behörden, eine Datenbank solcher Bilder. Die Liste der problematischen Hashes ist direkt auf den Nutzerhandys gespeichert, dort läuft auch der Abgleich.
Findet das System eine Übereinstimmung, fügt es an das verschlüsselte Bild in der Cloud eine verschlüsselte Anmerkung hinzu. Darauf ist gespeichert, zu welchem Bild der Datenbank dieser Hash passt, sowie visuelle Informationen über das Bild. Ohne das Wissen des Nutzers erhält Apple eine erste Meldung.
Erst nach einer bestimmten Zahl solcher Meldungen für einen Nutzer kann Apple diese Informationen für ein bestimmtes Bild entschlüsseln, das Bild selbst bleibt dabei unsichtbar. In solchen Fällen würden Mitarbeiter kontrollieren, mit welchen Bildern der Datenbank der Hash übereinstimmt, das Nutzerkonto sperren und einen Bericht an die Kinderschutz-Organisation schicken, schreibt Apple in seiner Veröffentlichung zum Thema.
Wie viele Meldungen es dazu braucht, verrät das Unternehmen nicht, es verspricht lediglich, dass das System nur in einem von einer Billion Fälle unbegründet ausschlagen (false positive) würde. Wenn ein Nutzer zu Unrecht gesperrt würde, könne er das melden, um seinen Account zurückzubekommen.
Kritik von Datenschützern
Während Kinderschutzorganisationen den Schritt begrüssen, haben Datenschützer Bedenken. Tatsächlich tut die Technologie zwar viel, um den Datenschutz hochzuhalten. Doch sie birgt trotzdem Gefahren.
Der offensichtlichste Weg, das System zu missbrauchen, wäre, in die Hash-Liste problematischer Bilder nicht nur solche von Kindesmissbrauch aufzunehmen, sondern auch von politischen oder religiösen Symbolen oder Memes. Theoretisch macht es diese Technologie möglich, die Bildspeicher der Nutzer auch nach solchen Bildern zu durchforsten. Welche Bilder in der Datenbank aufgenommen sind, ist nicht öffentlich bekannt.
Auch hier gäbe es Missbrauchsmöglichkeiten, mahnt etwa der Kryptografieexperte Matthew Green von der Johns-Hopkins-Universität in Maryland gegenüber dem IT-Magazin «The Register»: «Apple ist der einzige Anbieter, der mit iMessage noch grossflächig die Möglichkeit gibt, Ende-zu-Ende-verschlüsselte Nachrichten zu verschicken.» China werde die Technologie nutzen wollen, um etwa die Bilder von gesuchten Regimekritikern herauszufiltern und so auf deren Aufenthaltsort zu schliessen, gibt er zu bedenken.