Na 1 minuut luisteren

Spraakassistent Amazon Alexa kan stemmen overledenen imiteren

23 juni 2022 14:34
De slimme speaker Echo Beeld © Getty

Amazons spraakassistent Alexa kan elke stem imiteren na slechts een minuut luisteren. Normaal gesproken is er veel meer geluidsmateriaal nodig om een computerstem te maken.

Amazon heeft de functie ontwikkeld om mensen bijvoorbeeld de stem van een overleden familielid weer te laten horen. Het bedrijf toonde de functie tijdens zijn jaarlijkse re:MARS-conferentie. Daarin vraagt een kind om een verhaaltje voor het slapengaan met de stem van zijn overleden grootmoeder.

Amazon zegt dat zijn systeem genoeg heeft aan een geluidsopname van één minuut van de stem van de overleden persoon. Daarna wordt een bestaande computerstem aangepast om te klinken zoals de stem van die overledene: een soort spraakfilter dus. Hoe de techniek precies werkt, heeft het bedrijf niet gezegd.

Miniatuurvoorbeeld
Lees ook:

Foto's met kunstmatige intelligentie in milliseconden omgezet naar 3D-beelden

Computerstemmen nog altijd arbeidsintensief

Het maken van een totaal nieuwe computerstem is nog altijd arbeidsintensief: een spraakacteur moet dan urenlang tonen, woorden en zinnen in een microfoon spreken. Die geluiden worden opgeknipt en weer samengepakt om elke mogelijke zin te kunnen maken.

Het idee is volgens Amazon om herinneringen duurzamer te maken. Volgens Rohit Prasad, hoofd kunstmatige intelligentie voor Alexa, is het belangrijk om "menselijke eigenschappen" aan AI-systemen te geven. Hij noemt als reden "deze tijden van voortdurende pandemie, waarin zovelen van ons een dierbare is verloren".

Miniatuurvoorbeeld
Lees ook:

Trump als Nirvana-baby: AI-kunst van Weird Dall-E is hit op socials

Ethische bezwaren niet aangestipt

"Hoewel AI de pijn en het verlies niet kan wegnemen, kan het absoluut de herinnering laten voortduren", zegt Prasad over de ontwikkeling. Het is niet duidelijk of en wanneer de functie wordt toegevoegd aan spraakassistent Alexa.

Amazon heeft ethische bezwaren niet aangestipt. Er zou makkelijk misbruik gemaakt kunnen worden van een realistisch klinkende namaakstem van een ander, bijvoorbeeld door telefoonfraude te plegen.

Altijd weten wat er speelt?
Download de gratis RTL Nieuws-app en blijf op de hoogte.

Playstore Appstore

Dit is een artikel van