Ga naar de inhoud
Niet meer in iOS 15

Apple stelt 'kinderpornoscan' iPhones uit

iPhone 12 Beeld © Getty

Apple gaat voorlopig geen iPhones en iPads 'scannen' op bekende kindermisbruikbeelden. De functie zou binnenkort via een update worden toegevoegd, maar Apple heeft na een storm van kritiek besloten de functie uit te stellen.

Apple kondigde de nieuwe functie, bedoeld om kinderen te beschermen en verspreiding van kinderporno tegen te gaan, eerder deze maand aan. "Op basis van feedback van klanten, belangengroepen, onderzoekers en anderen hebben we besloten om de komende maanden extra tijd te nemen om input te verzamelen en verbeteringen aan te brengen, voordat deze belangrijke veiligheidsfuncties worden vrijgegeven", aldus Apple in een verklaring.

Apple wilde de nieuwe 'scan' binnenkort in de VS toevoegen in iOS 15. Als foto's naar de backupdienst iCloud Foto’s zouden worden verstuurd, zouden deze worden vergeleken met een database van bekende beelden van kindermisbruik.

Veel kritiek

Na de aankondiging volgde een storm van kritiek, ook onder het eigen personeel. Onder meer beveiligingsexperts, privacy-activisten en juristen wezen Apple op de gevaren van zo'n 'scan' voor de privacy en beveiliging van gebruikers. 

Een groot kritiekpunt op de methode van Apple is dat het de beveiliging van iPhones en iPads op een kier zou zetten. Ook loopt Apple het risico dat autoritaire regimes kunnen eisen om op een vergelijkbare manier foto's van gebruikers op allerlei andere zaken te 'scannen'. Apple heeft meermaals gezegd zulke verzoeken te weigeren.

90
Lees ook
90 organisaties uiten kritiek op Apple om 'kinderpornoscan' iPhones

Digitale vingerafdruk

Bedrijven als Amazon en Facebook scannen al langer beelden van gebruikers zodra zij die online zetten, zowel openbaar als in een afgeschermde cloudopslag. De methode van Apple is wel nieuw, omdat de controle deels plaatsvindt op het apparaat van de gebruiker zelf in plaats van in de cloud.

Apple zoekt met zijn algoritme naar de digitale vingerafdruk van eerder gevonden beelden van kindermisbruik. Het systeem slaat daarom alleen alarm als zulke beelden worden gevonden. Dat zou niet gebeuren bij andere naaktbeelden, zoals porno, eigen naaktfoto's of foto's van mensen en hun kind in bad.

Zolang een beeld niet overeenkomt met de digitale vingerafdruk van bekend misbruikmateriaal, wordt dat beeld genegeerd. Het systeem 'ziet' niet, kent geen onderscheid tussen een foto van een vis, een bloem of naakt. Het systeem zoekt naar overeenkomsten tussen de cryptografische, numerieke weergave van foto's van gebruikers en de databank met cryptografische weergaven van bekende beelden.

Wat
Luister ook
Wat is er toch aan de hand bij Apple?

Medewerkers

Apple stelde dat het systeem bij detectie van zo'n 30 bekende misbruikbeelden alarm zou slaan. De beelden zouden dan in lage resolutie worden getoond aan controleurs van het bedrijf. Die medewerkers zouden alleen toegang tot die gedetecteerde beelden hebben, niet tot de volledige fotobibliotheek van de gebruiker. Als er sprake is van kinderporno, schakelt Apple de autoriteiten in.

Een Apple-topman gaf vorige maand al toe dat de communicatie over de nieuwe functie 'niet helder genoeg' was geweest.

Later bleek dat Apple sinds 2019 al bijlagen van iCloud Mail scant op mogelijke kindermisbruikbeelden. Het gaat om de bijlagen van zowel verzonden als ontvangen e-mails via het e-mailplatform. 

Bright blok

Volg Bright voor meer tech:

Luister onze podcast

Kijk onze video's

Volg ons op Instagram, Twitter en Facebook