Ga naar de inhoud
'Onvoldoende bewust'

Privacywaakhond: AI-chatbots risicovol voor kinderen

Een chatbot. Beeld ter illustratie. Beeld © ANP / Hollandse Hoogte / Robin Utrecht

De Autoriteit Persoonsgegevens, de toezichthouder voor privacy, maakt zich zorgen om apps die kunstmatige intelligentie (AI) gebruiken. Het gaat daarbij vooral om apps die op kinderen zijn gericht.

Een techbedrijf is door de organisatie gevraagd om te vertellen wat zijn chatbot doet met de informatie die mensen delen. Het is niet bekend om welk bedrijf het gaat.

Snapchat
Lees ook:
Snapchat past chatbot aan: doet niet meer alsof hij echt persoon is

De AI-chatbots brengen veel risico's met zich mee voor kinderen, stelt de Autoriteit Persoonsgegevens. "Zij zijn zich onvoldoende bewust van deze risico's. Het is belangrijk dat zij bijvoorbeeld weten wat er gebeurt met hun chatberichten en of ze praten met een chatbot of met een echt persoon", zegt de organisatie.

Eerder stelde de Autoriteit vragen aan OpenAI, het bedrijf achter de veelgebruikte chatbot ChatGPT. De toezichthouder wilde bijvoorbeeld weten hoe persoonsgegevens worden gebruikt om de kunstmatige intelligentie te trainen en te verbeteren.

Gevaren AI

Er wordt regelmatig gewaarschuwd voor de risico's van AI. In april kwam nog een groep van 50 AI-experts en instellingen bij elkaar om te vragen om strengere regels voor de ontwikkeling van AI.

Zij maken zich zorgen om de potentiële risico's van nieuwe AI-software, bijvoorbeeld bij gezichtsherkenning. Sommige systemen vormen een onacceptabel risico voor de veiligheid of bedreigen zelfs mensenrechten, stelden de experts in april.

Weer
Lees ook:
Weer een roep om strenge regels voor AI: dit is waarom

Ook de Europese Unie houdt zich bezig met de regulering van kunstmatige intelligentie. De EU werkt al twee jaar aan regels voor AI en probeert vast te stellen hoe streng die regels moeten worden.

Techgiganten
Lees ook:
Techgiganten komen met waakhond voor ontwikkeling AI