Hume AI voegt ‘empathie’ toe aan spreek- en luistervermogen

by Ziptone

Hume AI voegt ‘empathie’ toe aan spreek- en luistervermogen

by Ziptone

by Ziptone

Met de Amerikaanse start-up Hume AI komt empathie in LLM’s weer een stapje dichterbij. Het bedrijf uit New York heeft zowel een ‘empathische steminterface’ gelanceerd, maar biedt ze ook een empathisch luistervermogen. Het idee is dat de grote taalmodellen van Anthropic, Google, Meta, Mistral en OpenAI de add-on gaan integreren.

 

WIRED testte de nieuwste spraaktechnologie van Hume, EVI 2 genaamd, en ontdekte dat de output vergelijkbaar was met die van de laatste versie van ChatGPT. Ook biedt Hume – net als bij ChatGPT4o – de optie om de spraak te onderbreken, waarna de oplossing zich aanpast.

Hume AI

klik voor de demo-versie

Het vlaggenschip van Hume AI, EVI 2, kan snel en vloeiend converseren, de toon van de stem van een gebruiker begrijpen en elke gewenste toon genereren. Het is in staat om een breed scala aan persoonlijkheden, accenten en spreekstijlen na te bootsen, aldus het bedrijf. Hume is expliciet ontworpen om de emoties van gebruikers te meten. WIRED constateerde aan de hand van de demo-omgeving dat er nog wel wat finetuning te doen was.

Affective computing

WIRED maakt in het artikel over Hume AI ook melding van hoogleraar Albert Salah, verbonden aan de Universiteit Utrecht, die zich bezighoudt met ‘affective computing’. Salah was onder de indruk van de technologie van Hume AI en ziet toepassingsmogelijkheden in zowel marketing als in de geestelijke gezondheidszorg. Hij merkt wel op dat mensen vaak hun ware emoties verbergen of hun affect veranderen tijdens een interactie, waardoor het voor AI-systemen moeilijk is om hun ware gevoelens nauwkeurig op te pikken.

Andere experts zien kansen voor spraakassistenten die goed op je gevoelens zijn afgestemd en reageren met wat oprechte empathie lijkt te zijn als je gefrustreerd overkomt. Ook wordt opgemerkt dat empathische stemmen niet verward moeten worden met echte empathie: LLM’s bootsen menselijke emoties na. Desondanks kleven er risico’s aan kunstmatige systemen die empathisch overkomen. OpenAI heeft gezegd onderzoek te willen doen om te bepalen hoe verslavend of overtuigend de interface kan blijken te zijn. Hume heeft het Hume Initiative opgericht, dat externe experts inschakelt om ethische richtlijnen en toezicht te bieden bij de ontwikkeling en toepassing van zijn technologie. (Wired)

Follow by Email
Facebook
X (Twitter)
Whatsapp
LinkedIn
Share

Ook interessant

Featured, Technologie

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Top