Microsoft zegt 'diep bedroefd' te zijn over de racistische en seksistische tweets van chatbot Tay. De zelflerende bot zou gesprekken met twitteraars aangaan, maar schoot al snel uit de bocht.
De chattende robot werd daarom twee dagen na de lancering offline gehaald. Het ging mis toen twitteraars vragen stelden over Hitler en de holocaust. Hij herhaalde bepaalde zinnen, en deed daardoor bizarre uitspraken.
Hitler-tweets
Het was de bedoeling dat hij daarmee zou klinken als zijn publiek, jongeren van 18 tot 24 jaar, maar dat publiek greep meteen zijn kans om te kijken hoe ver Tay zou gaan in het overnemen van racistische en seksistische zinnen. Microsoft haalde de bot offline nadat hij zinnen als "Hitler had gelijk ik haat Joden" en "Bush deed 9/11" over nam.
Microsoft wil het project alleen weer opstarten als de chatbot weer zo werkt dat hij geen teksten kan tweeten die ingaan tegen de principes en waarden van het bedrijf, laat vice-president Peter Lee weten in een blog.
Sociale oefening nodig
"Hoewel we Tay hadden voorbereid op een heleboel manieren van misbruik van het systeem, waren we niet voorbereid op zo'n soort aanval", schrijft hij. "We nemen er de volle verantwoordelijkheid voor dat we deze mogelijkheid niet vooraf gezien hadden. We nemen deze les mee, samen met de lessen die we trekken uit onze experimenten in China, Japan en VS."
Tay is één van vele chatbots die Microsoft heeft ontwikkeld. In China is er XiaoIce, een chatbot die met 40 miljoen mensen heeft 'gepraat'. De uitdagingen voor dergelijke kunstmatige intelligentie liggen niet alleen op technisch vlak, maar ook sociaal. Testen moet daardoor wel in publieke fora, zegt de internetgigant. Maar mensen beledigen in dit proces, dat was natuurlijk niet de bedoeling.