KI op de arbeidsmarkt

Computer of recruiter: 'Ook algoritmes discrimineren'

19 mei 2022 07:12 Aangepast: 19 mei 2022 08:54
Beeld ter illustratie Beeld © ANP

Algoritmes helpen bedrijven steeds vaker met het vinden van personeel, maar ze zijn lang niet altijd objectief. Ze kunnen bestaande vooroordelen juist uitvergroten, zeggen kenners. "Bedrijven die de tools gebruiken, mogen de uitkomsten niet klakkeloos overnemen."

'Hey Siri, vind een kandidaat.' Steeds meer bedrijven maken gebruik van software om personeel te vinden en screenen. Het klinkt mooi, maar een keerzijde is er ook, zegt vrouwenrechtenorganisatie WOMEN Inc., die er recent onderzoek naar deed. Over die keerzijde gingen verschillende kenners deze week in debat.

"De algoritmes achter veel tools en programma’s zijn menselijke creaties, zegt Cécile Wansink, woordvoerder van WOMEN Inc. "En daarom kunnen ze bestaande vooroordelen overnemen." Het leidt er bijvoorbeeld toe dat vrouwen minder kans hebben op een baan.

Discriminerende algoritmes

Discriminerende algoritmes? Het gegeven is niet nieuw: in het recente verleden was er bijvoorbeeld al kritiek op gezichtsherkenningssoftware, dat de fout ingaat bij de identificatie van etnische minderheden en vrouwen. Ook Amazon lag al onder vuur, omdat de recruitmenttools van het bedrijf een voorkeur hadden voor mannen.

Die mannen domineerden traditioneel het bedrijf en dat was terug te vinden in de software en algoritmes. "Een algoritme an sich is niet bevooroordeeld", zegt Remy Gieling, eigenaar van ki-platform Ai.nl en auteur van 'Ontdek de groeikansen van AI.' Het gaat om de data waarmee het wordt gevoed.

Miniatuurvoorbeeld
Lees ook:

Europarlement: gezichtsherkenning in publieke ruimtes verbieden

'Een kind opvoeden'

Via kunstmatige intelligentie kunnen software en machines zelfstandig problemen oplossen en bijvoorbeeld bepaalde mensen selecteren. Maar dat doen ze op basis van gegevens die mensen invoeren. "Het is een beetje alsof je een kind opvoedt", zegt Gieling. "Het systeem leert van de voorbeelden die jij het geeft."

Zo leerden de systemen van Amazon van de cv’s van witte mannen die voor het bedrijf werkten. En werd die data de basis voor het selecteren van nieuw personeel. Amazon paste zijn algoritmes aan, maar veel andere bedrijven zijn zich niet bewust van de beperktheid van hun data, zegt Gieling. Daar zouden ze volgens hem meer zorg en aandacht aan moeten besteden.

Gaat veel mis

Volgens privacy-advocate en hoogleraar ICT Lokke Moerel gaat het op veel plekken mis. Namen noemt ze echter liever niet. "Voor elke stap in een sollicitatieproces is tegenwoordig wel een tooltje", zegt ze. Zoals tools om vacatureteksten inclusiever te maken of vacaturesites die advertenties aan de juiste man proberen te brengen. "Elke tool heeft zijn eigen valkuilen."

Zo is een algoritme van een vacaturesite vaak gericht op het genereren van zoveel mogelijk kliks. Daarmee verdienen de sites hun geld. Daarom zien vooral mannen een advertentie voor taxichauffeur en kan stereotypering worden uitvergroot. Tools die kandidaten tijdens interviews screenen zijn getraind op taal en gezichtsuitdrukkingen, maar die zijn voor verschillende bevolkingsgroepen weer anders. "Hierom kunnen ze zomaar buiten de boot vallen."

Het probleem is dat die tools niet transparant zijn in hoe ze werken, zegt Moerel. En daarom ook niet te controleren. "Terwijl de kans dat ze vooroordelen in zich hebben groot is."

Miniatuurvoorbeeld
Lees ook:

Met deze gezichten zijn systemen voor gezichtsherkenning te foppen

'Ook goede tools'

Goede tools zijn er ook, zegt de hoogleraar. Zoals de chatbot van Randstad, die navraag doet bij kandidaten over hun skills. "Mensen met verschillende achtergronden beschrijven hun vaardigheden soms anders." Door navraag te doen kan er beter worden gezocht naar een werkmatch in de database.

Volgens Moerel staat veel recruitementsoftware nog wel in de kinderschoenen en is het lastig om alle vooroordelen eruit te halen. "Mijn inschatting is dat veel van de tools niet aan de strenge eisen van de Europese privacywet (AVG) voldoen." Bijvoorbeeld omdat de software het afwijzen van mensen automatiseert. En dat mag niet zomaar. 

"In een tijd van tekorten op de arbeidsmarkt is dat ook geen goede zaak denk ik."

'Mens alleen niet genoeg'

Volgens Rina Joosten, oprichter softwarebedrijf Seedlink, hebben bedrijven algoritmes juist nodig in tijden van krapte. Om nieuwe inzichten te vergaren en juist die personen te vinden die ze anders zouden overslaan. En dat kan volgens haar ook zonder vooroordelen. "Wij kijken puur naar competenties, niet naar zaken als geslacht of etnische achtergrond", zegt ze.

Het bedrijf helpt bedrijven met het werven van mensen. Daarvoor is een interviewtool ontwikkeld waarbij sollicitanten vragen beantwoorden. De antwoorden gaan via een "niet-bevooroordeeld" algoritme door een grote database zegt de ondernemer. Dat moet uiteindelijk leiden tot diversere en beter presterende teams. 

Volgens Joosten zullen mensen het computerwerk altijd moeten blijven checken op vooroordelen en fouten. Maar alleen de menselijke inschatting is niet genoeg. "Computers en algoritmes zijn flexibeler dan mensen, zegt Joosten. "En ze kunnen opnieuw getraind worden."

Miniatuurvoorbeeld
Lees ook:

Goede match of grote irritatie? Contactverzoeken recruiters vliegen je om de oren

Altijd weten wat er speelt?
Download de gratis RTL Nieuws-app en blijf op de hoogte.

Playstore Appstore

Dit is een artikel van