Als we de knapste koppen van onze generatie mogen geloven staan we aan de vooravond van de grootste gebeurtenis in de menselijke geschiedenis: het creëren van kunstmatige intelligentie. Het debat over de gevaren is in volle gang. Ook in Nederland.
De twee grootste misverstanden die er bestaan over kunstmatige intelligentie?
1. Dat deze binnen een aantal jaar even slim en zelfstandig is als wij mensen
2. Denken dat zoiets nooit zal gebeuren, of dat het gebeurt in een tijdsbestek dat wij ons er nu geen zorgen over hoeven te maken.
Afgelopen week kwamen onder andere Google, Facebook en onderzoekers bijeen in New York om te praten over artificial intelligence (AI), oftewel slimme (computer)systemen die zelf leren van hun ervaringen. Het doel: achterhalen wat de grenzen zijn van computer-intelligentie en welke gevaren dit kan opleveren voor ons voortbestaan.
Mensheid vernietigen
Kunstmatige intelligentie heeft vaak iets onheilspellends. Zo waarschuwden toonaangevende wetenschappers en denkers waaronder Stephen Hawking, Bill Gates en Elon Musk in het verleden al meermaals voor de gevaren die schuilgaan achter het succes in het ontwikkelen van AI: het kan de grootste gebeurtenis in de menselijke geschiedenis worden, en veel erger, de mensheid in potentie vernietigen als wij de controle verliezen.
Maar er is ook hele andere kant die juist razend enthousiast wordt belicht: kunstmatige intelligentie lost problemen van wereldformaat op. We kunnen AI aan het werk zetten met grote problemen zoals overbevolking, voedseltekorten, zorgdillema’s, milieuvervuiling of het vinden van nieuwe energiebronnen.
Een computer zou bijvoorbeeld het fileprobleem kunnen oplossen, slimmere stedenbouw mogelijk maken of een dokter kunnen adviseren bij de analyse van een hersenscan en daarbij alle denkbare (menselijke) fouten voorkomen.
Dit schattige autootje van Google leert zichzelf continu beter rijden en is een veel geroemd voorbeeld van AI.
Nu bedrijven zoals Google, Facebook en Microsoft en de startups die zij opslokken zich intensief bezighouden met AI gaat het hard. We laten steeds meer over aan autonome, intelligente systemen. Van algoritmes die op eigen houtje handelen op de beurs tot autonome wapens en zelfrijdende auto’s. Maar hoeveel willen we eigenlijk overlaten aan AI? Welke beslissingen mogen computers nemen?
Controle
"Het is één van de grootste vraagstukken van de komende decennia", zegt Jeroen van den Hoven, hoogleraar Ethiek en Technologie aan de Technische Universiteit Delft. "Houden wij de controle of controleert de technologie straks ons? De tijd is aangebroken dat we moeten opletten."
Volgens hem gaan we ons steeds meer realiseren hoe slim software kan zijn: "De zelflerende Google Car natuurlijk, maar ook de Volkswagen-affaire zet mensen aan het denken. Ze realiseren zich: ik weet er niets van, deze slimme software misleid ons."
In Delft is hij samen met collega’s volop bezig met de verantwoordelijkheden die techies die werken aan kunstmatige intelligentie hebben en krijgen, onder de noemer Maatschappelijk Verantwoord Innoveren (MVI).
Studies in Nederland
Nederland kent opvallend veel studies die zich bezighouden met kunstmatige intelligentie. In Utrecht, Groningen, Amsterdam, Maastricht en Nijmegen bieden universiteiten opleidingen aan. De richtingen variëren van informatica, logica, statistiek, psychologie, taalkunde tot filosofie: AI heeft overal raakvlakken.
Neuropsycholoog en AI-onderzoeker Stefan van der Stigchel van de Universiteit Utrecht wijst op de snelheid waarmee het vakgebied zich ontwikkelt. "Toen ik AI studeerde in 1998 waren dit allemaal nog sciencefiction dromen, er gebeurde niet zoveel. Maar door de opkomst van bedrijven als Google en Facebook is het realiteit geworden", vertelt hij.
Ons brein is bij uitstek het voorbeeld van een lerend systeem, vertelt Van der Stigchel, die onderzoek doet naar hoe menselijke intelligentie werkt. Het vormt de basis van onze kennis over in hoeverre een computerprogramma de menselijke manier van denken en redeneren kan imiteren.
Ethisch dilemma
Ethiek zien we in de Nederlandse opleidingen nog weinig terug. De discussie is tamelijk recent en komt daarom nog niet voor in het curriculum. Van der Stigchel: "Het is vooral nog iets wat studenten in de kroeg bespreken. De fase dat het binnen de universiteit wordt behandeld, breekt nu pas aan."
Een goed voorbeeld daarvan is het onderzoek van collega-wetenschapper Jan Broersen. Hij ontving 1,9 miljoen euro voor zijn studie naar de verantwoordelijkheid van intelligente systemen. Met als einddoel een prototype van een computersysteem dat risico’s, verantwoordelijkheden en aansprakelijkheden begrijpt.
Doemdenkers
Maar hoe zit het dan met die vrees voor het tijdstip waarop we de controle verliezen en AI niet meer begrijpen?
Van den Hoven: "Ieder mens moet steeds dezelfde fouten maken. Maar een robot kan meteen leren van alle fouten die alle robots ooit gemaakt hebben. Die leercurve is heel veel steiler. Dus als wij daar niets aan doen, gaat dat wel gebeuren."
Ook de robotica zal volop profiteren van de ontwikkelingen in AI.
Michael Littman, computerwetenschapper en AI-onderzoeker aan de Brown University, was vorige week aanwezig in New York op de ethische AI-bijeenkomst. Hij e-mailt dat de stemming er positiever was dan verwacht. Littman: "De sfeer was gemengd. Maar ook bij de doemdenkers lag de focus op de urgentie om ervoor te zorgen dat de problemen serieus worden genomen."
Hijzelf ziet de ethische implicaties van AI als zeer belangrijk. Littman: "Het is grotendeels hetzelfde als de ethische implicaties van alle technologieën. Slechte mensen kunnen technologie gebruiken om anderen pijn te doen. Hebzuchtige mensen kunnen technologie gebruiken om anderen uit te buiten. Ik denk dat AI daarop geen uitzondering is."