Shaping the Future with AI - 5 Fuck-ups aus über 50 Projekten und was wir daraus gelernt haben Anmelden und live dabei sein
Lernen Sie Stolpersteine auf dem Weg zur erfolgreichen Nutzung von KI aus der Praxis kennen und warum diese „Fuck-ups“ ein Sprungbrett sein können, um nachhaltige Erfolge zu erzielen.
Anmelden und live dabei sein
Wie B2B-Online-Plattformen den Erfolg von morgen sichern Anmelden und live dabei sein
Machen Sie ihren Online-Kanal erfolgreicher. Erfahren Sie anhand von Praxisbeispielen, wie Sie geschickt geschickt Marketing-, Sales- und Serviceprozesse verbinden.
Anmelden und live dabei sein

Kampf gegen Kinderpornografie: Kritik an Apples neuer Kinderschutz-Funktion

09.08.2021 Die neue CSAM-Funktion untersucht die Foto-Galerien in der iCloud auf kinderpornografisches Material. Sicherheitsforscher sind jedoch alarmiert.

 (Bild: Jan Vazek auf Pixabay)
Bild: Jan Vazek auf Pixabay
Im Herbst wird Apple zur Homepage dieses Unternehmens Relation Browser mit iPadOS 15 und iOS 15 zunächst in den USA die neue Funktion 'CSAM-Detection' einführen, mit der über den Cloud-Dienst iCloud kinderpornografisches Material ("Child Sexual Abuse Material", CSAM) identifiziert und dann den zuständigen Behörden gemeldet werden soll. Dies erklärt Apple in einem Whitepaper zur Homepage dieses Unternehmens Relation Browser . Die Inhalte werden mit einer Datenbank der US-Non-Profit National Center for Missing and Exploited Children (NCMEC) zur Homepage dieses Unternehmens Relation Browser abgeglichen, die CSAM-Inhalte sammelt. Zusätzlich soll die eigene Apple-Funktion 'NeuralHash' nicht nur eindeutige Treffer, sondern auch "nahezu identische" Aufnahmen finden, die sich auch in Größe und Kompression vom Original unterscheiden können.

Für den Plan gibt es Applaus von Kinderschützern. SicherheitsforscherInnen üben jedoch Kritik, ihnen gehen diese Funktionen zu weit. Der Konzern betont zwar, beim CSAM-Scanning bleibe "die Nutzerprivatsphäre im Blick". Doch Kritiker monieren, dass Apple ein On-Device-Scanning plane, also die Inhalte nicht in der Cloud auf eigenen Servern scannt, wie Microsoft, Dropbox, Google etc., sondern direkt auf dem Gerät des Nutzers. Die 'NeuralHash'-Überpüfung soll jeweils vor dem Upload in die iCloud erfolgen - und nur wenn der iCloud-Foto-Upload aktiv ist, wie der Konzern laut Heise zur Homepage dieses Unternehmens Relation Browser nach der Kritik nochmals klarstellte. Kryptografie-Professor Matthew Green‘Matthew Green’ in Expertenprofilen nachschlagen von der Johns Hopkins University in Baltimore befürchtet jedoch, dass Apples Infrastruktur später missbraucht werden könne - etwa zum Scanning von aktuell Ende-zu-Ende-verschlüsselten Inhalten auf dem Gerät wie iMessages.

Und eine weitere neue Funktion sorgt für Diskussionen: Ein "Nacktscanner" in iMessage zur Homepage dieses Unternehmens Relation Browser . Das Feature soll künftig Kinder warnen, wenn sie "sexuell explizite Inhalte" erhalten oder versenden. Dabei wird ein erkanntes Bild zunächst unkenntlich gemacht, die Jugendlichen müssen dann entscheiden, ob sie es wirklich sehen möchten. Dann gibt es aber eine Benachrichtigung an die Eltern.
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema:
Experten-Profile Genannte Personen: