Tech

'Kunstmatige intelligentie neemt racistische vooroordelen over'

14 april 2017 12:41 Aangepast: 26 april 2018 23:49

Kunstmatige intelligentie neemt vooroordelen op gebied van ras en gender over van menselijke voorbeelden.

Je zou verwachten dat kunstmatige intelligentie vrij zou zijn van vooroordelen, maar computers blijken ook maar zo heilig als de menselijke voorbeelden die ze volgen. Dat blijkt uit een studie van de University of Bath en Princeton University. Het onderzoek toont aan dat ook kunstmatige intelligentie bevooroordeeld kan zijn.

"Denk niet dat AI een soort goede fee is", zegt onderzoeker Joanna Bryson. "AI is een verlengstuk van onze bestaande cultuur." Dat blijkt uit een test waarbij kunstmatige intelligentie gevraagd werd woorden te associëren met andere woorden. Daarbij legde de computer witte namen als Brad en Courtney in verband met 'geluk' en 'zonsopkomst', en zwarte namen als Leroy en Latisha met 'haat' en 'overgeven'.

Dokter = man

De kunstmatige intelligentie associeert ook mannen sneller met werk, wiskunde en wetenschap, en vrouwen sneller met familie en kunst. Allemaal vooroordelen die zijn overgenomen van de mens, en vaak op manieren die je niet zou verwachten. Zo leren AI-systemen taal op basis van onder meer boeken uit de 19e eeuw, die volstaan met stereotyperingen op het gebied van ras en gender.

Google Translate

De onderzoekers halen ook Google aan. Zo vertaalt Google Translate onzijdige voornaamwoorden uit andere talen naar geslachtelijke voornaamwoorden in het Engels; hij als het over een dokter gaat, zij als het een verpleger betreft. In 2016 merkte Microsoft ook al dat het snel mis kan gaan met kunstmatige intelligentie die bij de mens afkijkt. Een onschuldige chatbot veranderde door te kijken naar de tweets van anderen razendsnel in een racistische nazi-bot.

Altijd weten wat er speelt?
Download de gratis RTL Nieuws-app en blijf op de hoogte.

Playstore Appstore

Dit is een artikel van