Ausgerechnet Apple. Ausgerechnet das Unternehmen, das äußerst selbstbewusst mit dem Schutz der Privatsphäre seiner Nutzerinnen und Nutzer wirbt, baut nun eine Funktion in seine Betriebssysteme, mit dem es Daten von iPhone- und iPad-Inhabern durchsuchen will: Ihre Fotos sollen künftig vor dem Upload in die Cloud auf Fotos von Kindesmissbrauch gescannt werden.

Das klingt erst einmal nach einem Ziel, dem man wenig widersprechen mag: Mit einer hauseigenen Technologie sollen Fotos auf dem Gerät der Nutzerin mit Informationen aus einer Datenbank bekannter Bilder von dokumentiertem Kindesmissbrauch abgeglichen werden, die die US-Kinderschutzorganisation National Center for Missing and Exploited Children (NCMEC) zusammengestellt hat. Das hat das Unternehmen nun in einem White Paper bekannt gegeben.

Dazu werden nicht die Fotos selbst, sondern sogenannte Hash-Werte abgeglichen – also eine Art digitaler Fingerabdruck des Fotos, der das Bild für Maschinen wiedererkennbar macht. Apple nutzt dafür nach eigenen Angaben eine selbst entwickelte Methode namens "NeuralHash", die nicht nur vollständig übereinstimmende, sondern auch "nahezu identische" Fotos erkennen können soll. Das bedeutet: Auch wenn die Bilder geringfügig, etwa in Größe oder Kompression verändert wurden, sollen sie so wiedererkennbar sein.

Kinderschutz per Scan

Apple sagt: Damit habe man ein System geschaffen, das die Privatsphäre seiner Nutzerinnen und Nutzer im Blick behalte. Denn: Direkten Zugriff auf die Bilder habe man nicht. Bevor Fotos auf die iCloud geladen werden, würde ein Abgleich der Hash-Werte stattfinden.

Wird eine Übereinstimmung mit Foto-Hashes aus der Missbrauchsdatenbank erkannt oder, genauer gesagt, ein bestimmter Schwellenwert für eine Übereinstimmung überschritten, können Bildinformationen von Apple für eine manuelle Überprüfung eingesehen werden. Gibt es einen Treffer, wird der Account der Gerätenutzerin gesperrt, außerdem wird die Kinderschutzorganisation NCMEC informiert, die wiederum die Behörden einschaltet. Fühlen sich Nutzerinnen und Nutzer zu Unrecht bestraft, sollen sie der Sperrung widersprechen können. Apple bezeichnet das Risiko, dass das System einen Account fälschlicherweise markiert, allerdings als "extrem gering".

Das entsprechende Feature soll Teil der Updates iOS 15 beziehungsweise iPadOS 15 sein, dessen Veröffentlichung für den kommenden Monat geplant ist. Die Funktion ist zunächst nur für Apple-Kunden mit US-Accounts aktiviert. Apple kündigte an, seine nun angekündigten Maßnahmen zum Kinderschutz "weiterentwickeln und ausweiten" zu wollen.

Warnungen bei iMessage und Siri-Interventionen

Zusätzlich will Apple auch an anderer Stelle "erweiterte Kinderschutzmaßnahmen" ergreifen: Ein weiteres neues Feature soll Eltern und Kinder mithilfe von Machine Learning warnen, wenn Minderjährige über Apples Chatdienst iMessage Nacktfotos verschicken oder empfangen.

Erhalten Kinder entsprechende Inhalte, werden diese zunächst verschwommen angezeigt, Kinder werden vor dem potenziell problematischen Inhalt gewarnt. Entscheidet ein Kind sich trotzdem dafür, das Foto anzusehen, bekommt es eine Nachricht, dass ein über die Familieneinstellungen mit dem Account verknüpfter Erziehungsberechtigter informiert wird.