Foto's op iPhones scannen

Apple gaat iPhones scannen op beelden van kindermisbruik

05 augustus 2021 22:30 Aangepast: 06 augustus 2021 21:39
Beeld © Getty

Apple gaat foto's van Amerikaanse iPhone- en iPad-gebruikers met nieuwe software scannen op afbeeldingen van kindermisbruik. Het programma slaat alarm als het illegale beelden detecteert, waarna Apple contact kan opnemen met de autoriteiten.

Apple heeft meerdere maatregelen bekendgemaakt die het verspreiden van beelden van kindermisbruik moeten tegengaan. Een nieuw programma gaat foto's in de clouddienst iCloud vergelijken met afbeeldingen van kindermisbruik uit een database van het Amerikaanse National Center for Missing and Exploited Children. Het systeem zou een foutmarge hebben van minder dan "1 per 1 biljoen".

Apple zegt een melding te krijgen als gebruikers foto's met bekend misbruikmateriaal in hun iCloud-account hebben. Als meerdere foto's als verdacht worden bestempeld, kan Apple besluiten de foto's van desbetreffende persoon te bekijken. Als ze illegaal lijken, kunnen ze aan de autoriteiten worden doorgespeeld.  

Alleen in de VS

Eerder schreef Financial Times over de plannen, op basis van wetenschappers. Zij kregen eerder deze week van Apple een uitleg over de software die beelden van kindermisbruik herkent, genaamd NeuralMatch. Het programma zou eerst alleen in de VS worden geïntroduceerd. Experts uiten in de Financial Times hun zorgen omdat de software kan leiden tot het bespioneren van de telefoons van miljoenen mensen.

Miniatuurvoorbeeld
Lees ook

'Face ID-gezichtsscan komt naar alle iPhones, iPads en Macs'

'Misbruik door regeringen op de loer'

Onderzoekers zeggen in de krant dat zo'n programma ook aangepast kan worden om andere ongewenste content op te sporen, zoals beelden van onthoofdingen door extremisten of protesten tegen regeringen. Critici vrezen dat andere techbedrijven straks onder druk gezet kunnen worden om gegevens op telefoons op een vergelijkbare manier in te gaten te gaan houden.

"Hiermee is het hek van de dam. Regeringen gaan dit van iedereen eisen", zegt veiligheidsexpert Matthew Green van de Johns Hopkins University. "Ongeacht wat de plannen van Apple zijn, ze geven hiermee een duidelijk signaal af. Ze vinden dat het veilig is om systemen te bouwen die de telefoons van gebruikers scannen op verboden inhoud. Dat is de boodschap die ze sturen naar regeringen, naar concurrerende diensten, naar China, en naar jou."

Beelden blurren in Berichten-app

Apple kondigde meer maatregelen aan. Er komt een optie in de Berichten-app van Apple die kinderen kan beschermen als zij seksuele beelden proberen te verzenden of ontvangen. Die beelden kunnen dan geblurd worden en ouders krijgen een waarschuwing als zulke beelden worden verstuurd of bekeken. Ook kan spraakassistent Siri ingrijpen als gebruikers proberen te zoeken naar misbruikmateriaal.

Miniatuurvoorbeeld
Lees ook

Apple verlaagt prijzen in de App Store

Hoe werkt het? 

Apple gebruikt software op het apparaat om foto's te vergelijken met de database van beelden van kindermisbruik. De software kijkt niet naar wat er precies op de foto's staat, maar voert een berekening uit, die ook is uitgevoerd op de beelden in de database. De uitkomst is een hash, een soort code, die wordt vergeleken met de hashes van de bekende kindermisbruikfoto's.

Als de hash overeenkomst, lijken de foto’s erg op elkaar. Apple kan het account van de gebruiker dan als verdacht aanmerken en kan overgaan tot het inseinen van de autoriteiten. 

Bright blok

Volg Bright voor meer tech:​​

Kijk onze video's

Volg ons op Instagram, Twitter en Facebook

En luister de podcast

Altijd weten wat er speelt?
Download de gratis RTL Nieuws-app en blijf op de hoogte.

Playstore Appstore

Dit is een artikel van