iBusiness Daily mit Executive Briefings abonnieren
Hier zu Premium-Plus upgraden
Kampf gegen Kinderpornografie: Kritik an Apples neuer Kinderschutz-Funktion
09.08.2021 Die neue CSAM-Funktion untersucht die Foto-Galerien in der iCloud auf kinderpornografisches Material. Sicherheitsforscher sind jedoch alarmiert.
![(Bild: Jan Vazek auf Pixabay) (Bild: Jan Vazek auf Pixabay)](/cgi-bin/resize/upload/bilder/516661frs.jpg?maxwidth=989&maxheight=659)
![zur Homepage dieses Unternehmens](/img/extLinkHome.gif)
![Relation Browser](/img/extLinkRelation.gif)
![zur Homepage dieses Unternehmens](/img/extLinkHome.gif)
![Relation Browser](/img/extLinkRelation.gif)
![zur Homepage dieses Unternehmens](/img/extLinkHome.gif)
![Relation Browser](/img/extLinkRelation.gif)
Für den Plan gibt es Applaus von Kinderschützern. SicherheitsforscherInnen üben jedoch Kritik, ihnen gehen diese Funktionen zu weit. Der Konzern betont zwar, beim CSAM-Scanning bleibe "die Nutzerprivatsphäre im Blick". Doch Kritiker monieren, dass Apple ein On-Device-Scanning plane, also die Inhalte nicht in der Cloud auf eigenen Servern scannt, wie Microsoft, Dropbox, Google etc., sondern direkt auf dem Gerät des Nutzers. Die 'NeuralHash'-Überpüfung soll jeweils vor dem Upload in die iCloud erfolgen - und nur wenn der iCloud-Foto-Upload aktiv ist, wie der Konzern laut Heise
![zur Homepage dieses Unternehmens](/img/extLinkHome.gif)
![Relation Browser](/img/extLinkRelation.gif)
![‘Matthew Green’ in Expertenprofilen nachschlagen](/img/extLinkProfil.png)
Und eine weitere neue Funktion sorgt für Diskussionen: Ein "Nacktscanner" in iMessage
![zur Homepage dieses Unternehmens](/img/extLinkHome.gif)
![Relation Browser](/img/extLinkRelation.gif)