Apple

90 organisaties uiten kritiek op Apple om 'kinderpornoscan' iPhones

19 augustus 2021 14:07 Aangepast: 19 augustus 2021 14:22
Beeld © Getty

Ruim 90 organisaties roepen Apple op om ouders niet te waarschuwen als kinderen naaktfoto's ontvangen of versturen. Ook willen ze dat Apple afziet van het plan om foto's op iPhones te 'scannen' op beelden van kindermisbruik.

De internationale organisaties, waaronder het Nederlandse Global Voices, hebben een open brief gericht aan Apple gepubliceerd. Apple kondigde de nieuwe functies, bedoeld om kinderen te beschermen en verspreiding van kinderporno tegen te gaan, eerder deze maand aan. Daarna volgde een storm van kritiek, zelfs onder het eigen personeel.

"We zijn bezorgd dat de nieuwe functies worden gebruikt voor censuur, dat ze de privacy en veiligheid van mensen in gevaar brengen, en dat ze rampzalige gevolgen kunnen hebben voor veel kinderen", staat er in de brief.

'LGBTQ+ jongeren lopen gevaar'

De organisaties roepen Apple op af te zien van een waarschuwingsfunctie die het wil toevoegen aan de Berichten-app (iMessage). Als jongeren naaktbeelden willen sturen of ontvangen, kunnen ouders daarvan een melding krijgen. Volgens de organisaties kunnen LGBTQ+ jongeren met intolerante ouders door zo'n functie gevaar lopen.

"Het systeem van Apple gaat ervan uit dat de ouders en kinderen een normale, gezonde relatie hebben. Maar dat is niet altijd het geval. (...) De gevolgen van zo'n melding aan een ouder kan de veiligheid en het welzijn van het kind in gevaar brengen."

Ook noemen ze algoritmes die seksueel expliciet materiaal moeten detecteren "notoir onbetrouwbaar". "Ze markeren bijvoorbeeld onterecht kunstwerken, gezondheidsinformatie, educatieve informatie en andere beelden."  

'Precedent voor censuur'

Ook vrezen de organisaties dat Apple met de detectie van bepaalde beelden in foto’s van gebruikers een precedent schept, waardoor overheden het bedrijf zullen gaan verplichten om ook op andere soorten beelden te scannen. Dat zou kunnen leiden tot censuur of inperkingen van de burgerrechten.

Apple heeft meermaals gezegd dat de functie alleen is bedoeld voor het detecteren van kindermisbruikbeelden en dat het andere verzoeken zal afwijzen. 

Miniatuurvoorbeeld
Lees ook

Onderzoekers weten foto-monitorprogramma van Apple te foppen

Controle bij upload naar iCloud Foto's

Apple wil de nieuwe 'scan' toevoegen in iOS 15, dat dit najaar verschijnt. Als foto's naar de backupdienst iCloud Foto’s worden verstuurd, worden deze vergeleken met een database van bekende beelden van kindermisbruik. De functie zal voorlopig alleen in de VS aan iOS-apparaten worden toegevoegd.

Als het systeem ongeveer 30 bekende misbruikbeelden detecteert, wordt Apple ingeschakeld. De beelden worden in lage resolutie getoond aan controleurs van het bedrijf. Die medewerkers hebben dan alleen toegang tot die gedetecteerde beelden, niet tot de volledige fotobibliotheek van de gebruiker. Als blijkt dat er inderdaad sprake is van kinderporno, schakelt Apple de autoriteiten in.

Miniatuurvoorbeeld
Lees ook

Apple-topman over kinderpornoscan: 'Communicatie was niet helder'

Digitale vingerafdruk

Het automatisch scannen van beelden op de aanwezigheid van kindermisbruik is niet nieuw. Bedrijven als Amazon en Facebook scannen al langer beelden van gebruikers zodra zij die online zetten, zowel openbaar als in een afgeschermde cloudopslag. De methode van Apple is wel nieuw, omdat de controle deels plaatsvindt op het apparaat van de gebruiker zelf in plaats van in de cloud.

Apple zoekt met zijn algoritme naar de digitale vingerafdruk van eerder gevonden beelden van kindermisbruik. Het systeem slaat daarom alleen alarm als zulke beelden worden gevonden. Dat zou niet gebeuren bij andere naaktbeelden zoals porno, eigen naaktfoto's of foto's van mensen en hun kind in bad.

Zolang een beeld niet overeenkomt met de digitale vingerafdruk van een bekend stuk misbruikmateriaal, wordt dat beeld genegeerd. Het systeem 'ziet' niet, kent geen onderscheid tussen een foto van een vis, een bloem of naakt. Het systeem zoekt naar overeenkomsten tussen de cryptografische, numerieke weergave van foto's van gebruikers en de databank met cryptografische weergaven van bekende beelden.

Ook intern zijn de plannen kritisch ontvangen. Sommige medewerkers vrezen voor reputatieschade voor Apple op het gebied van privacy, dat juist al jaren een stokpaardje van het bedrijf is.

Bright blok

Volg Bright voor meer tech:​​

Kijk onze video's

Volg ons op Instagram, Twitter en Facebook

En luister de podcast

Altijd weten wat er speelt?
Download de gratis RTL Nieuws-app en blijf op de hoogte.

Playstore Appstore

Dit is een artikel van