Zum Dossier 'Temu-Strategie'
Kampf gegen Kinderpornografie: Kritik an Apples neuer Kinderschutz-Funktion
09.08.2021 Die neue CSAM-Funktion untersucht die Foto-Galerien in der iCloud auf kinderpornografisches Material. Sicherheitsforscher sind jedoch alarmiert.
Für den Plan gibt es Applaus von Kinderschützern. SicherheitsforscherInnen üben jedoch Kritik, ihnen gehen diese Funktionen zu weit. Der Konzern betont zwar, beim CSAM-Scanning bleibe "die Nutzerprivatsphäre im Blick". Doch Kritiker monieren, dass Apple ein On-Device-Scanning plane, also die Inhalte nicht in der Cloud auf eigenen Servern scannt, wie Microsoft, Dropbox, Google etc., sondern direkt auf dem Gerät des Nutzers. Die 'NeuralHash'-Überpüfung soll jeweils vor dem Upload in die iCloud erfolgen - und nur wenn der iCloud-Foto-Upload aktiv ist, wie der Konzern laut Heise nach der Kritik nochmals klarstellte. Kryptografie-Professor Matthew Green von der Johns Hopkins University in Baltimore befürchtet jedoch, dass Apples Infrastruktur später missbraucht werden könne - etwa zum Scanning von aktuell Ende-zu-Ende-verschlüsselten Inhalten auf dem Gerät wie iMessages.
Und eine weitere neue Funktion sorgt für Diskussionen: Ein "Nacktscanner" in iMessage . Das Feature soll künftig Kinder warnen, wenn sie "sexuell explizite Inhalte" erhalten oder versenden. Dabei wird ein erkanntes Bild zunächst unkenntlich gemacht, die Jugendlichen müssen dann entscheiden, ob sie es wirklich sehen möchten. Dann gibt es aber eine Benachrichtigung an die Eltern.