Inmiddels is de AI-spraaktechniek zo ver, dat we het verschil met een echte mensenstem nog maar slecht kunnen horen. Toch lijken onze hersenen nog wel een verschil op te merken, suggereert nieuw onderzoek.
43 mensen luisterden naar zowel AI-stemmen als menselijke stemmen. Ze moesten detecteren welke spraakfragmenten echt waren en welke niet, terwijl hun hersenactiviteit werd bestudeerd.
In maar ongeveer de helft van de gevallen hadden ze het goed. Geen beste score. De onderzoekers zagen ook dat als een stem neutraal klonk, het eerder als AI werd gehoord. Zeker wanneer het een vrouw was. Dit heeft ongetwijfeld iets te maken met onze ervaringen met Siri en Alexa. Als een stem vrolijk klonk, werd deze dan weer eerder als menselijk beoordeeld.
De deelnemers waren even slecht in het identificeren van AI-stemmen als mensenstemmen, maar werd gekeken naar hersenactiviteit dan was er wél een verschil te zien. Menselijke stemmen zorgden voor een sterkere reactie in het geheugen- en empathiegebied in het brein. AI-stemmen zorgden dan weer voor meer activiteit in gebieden die gelinkt zijn aan het detecteren van fouten en het behouden van aandacht.
Het was een klein onderzoek, maar toch zijn het interessante resultaten. We kunnen het slecht, de toon van de stem is daarbij behoorlijk sturend, maar onze hersenen lijken toch een verschil op te merken.
In vervolgonderzoek willen ze onder andere gaan kijken of eigenschappen van de persoon die luistert, van invloed zijn op hoe goed diegene AI-stemmen van echt kan onderscheiden.
Lees hier meer over het onderzoek: Our brains respond differently to human and AI-generated speech, but we still struggle to tell them apart
See omnystudio.com/listener for privacy information.