Apple wordt geconfronteerd met een rechtszaak tegen slachtoffers van seksueel misbruik van kinderen omdat ze er niet in zijn geslaagd een systeem te implementeren om materiaal van seksueel misbruik van kinderen (CSAM) op iCloud te detecteren. De New York Times. De rechtszaak eist ruim $1,2 miljard aan schadevergoeding voor ongeveer 2.680 personen, als gevolg van vermeende nalatigheid bij het beschermen van gebruikers tegen schade.
Apple klaagde 1,2 miljard dollar aan wegens mislukte detectie van seksueel misbruik van kinderen
In 2021 maakte Apple zijn voornemen bekend om een CSAM detectietool bedoeld om iCloud te scannen op beledigende afbeeldingen en het National Center for Missing and Exploited Children te waarschuwen. Dit initiatief had tot doel de uitbuiting van kinderen effectief te bestrijden. Na aanzienlijke reacties op privacykwesties verliet Apple het project echter, waardoor de verdachten onbeschermd bleven en het voortdurende misbruik onopgelost bleef.
De rechtszaak werd aangespannen in Noord-Californië en stelt dat Apple “er niet in is geslaagd deze ontwerpen te implementeren of maatregelen te nemen om CSAM op zijn apparaten te detecteren en te beperken”. De claim omvat ervaringen van een 27-jarige vrouw, die verklaarde dat ze nog steeds berichten van wetshandhavingsinstanties ontvangt over het online delen van haar foto’s, gemaakt toen ze nog een kind was. De rechtszaak benadrukt de emotionele onrust die slachtoffers ondergaan als deze materialen ongecontroleerd circuleren.
“Materiaal over seksueel kindermisbruik is weerzinwekkend en we willen ons inzetten voor de strijd tegen de manieren waarop roofdieren kinderen in gevaar brengen. We innoveren dringend en actief om deze misdaden te bestrijden zonder de veiligheid en privacy van al onze gebruikers in gevaar te brengen. Functies als Communicatieveiligheid waarschuwen kinderen bijvoorbeeld wanneer ze inhoud ontvangen of proberen te verzenden die naaktheid bevat, om de keten van dwang te helpen doorbreken die tot seksueel misbruik van kinderen leidt. We blijven diep gefocust op het bouwen van beschermingsmaatregelen die de verspreiding van CSAM helpen voorkomen voordat deze begint”, vertelde Apple-woordvoerder Fred Sainz. Engadget.
Als reactie hierop bevestigde Apple zijn inzet voor de bestrijding van seksueel misbruik van kinderen, waarbij prioriteit wordt gegeven aan de privacy van gebruikers. Woordvoerder Fred Sainz merkte op: “Materiaal over seksueel misbruik van kinderen is weerzinwekkend en we willen ons inzetten voor de strijd tegen de manieren waarop roofdieren kinderen in gevaar brengen.” Hij verwees naar bestaande maatregelen zoals communicatieveiligheid, die kinderen waarschuwt voor het delen van expliciete inhoud.
Ondanks deze inspanningen kreeg Apple onlangs te maken met extra kritiek toen de Britse National Society for the Prevention of Cruelty to Children het bedrijf ervan beschuldigde te weinig CSAM te rapporteren dat op zijn platforms werd aangetroffen. Dit vergroot de toenemende druk met betrekking tot de strategieën van Apple om dit probleem effectief aan te pakken.
Uitgelichte afbeeldingscredits: Niels Kehl/Unsplash