Chatbottevredenheidsonderzoek – column Erik Bouwer

by Ziptone

Chatbottevredenheidsonderzoek – column Erik Bouwer

by Ziptone

by Ziptone

Google heeft bereikt dat de discussie over robots weer is opgelaaid. Aanleiding: een ontwikkelaar van Google heeft gezegd dat een door Google ontwikkelde chatbot (met de naam LaMDA) die in staat is angst en pijn te ervaren. Een sterk staaltje antropomorfisme: menselijk eigenschappen aan objecten toekennen. Maar het was voldoende komkommertijd om er bovenop te duiken en Ziptone kan natuurlijk niet achterblijven.

chatbot

Uiteraard kan een chatbot – op basis van verzamelde informatie en aan de hand van het aanwezige taalmodel – mededelen dat al die verzamelde informatie tot angst leidt. Maar angst rapporteren is nog geen angst voelen, laat staan het bijbehorende gedrag vertonen. Of zoals AI-hoogleraar Toby Walsh in The Guardian schreef: een taalmodel is software die menselijk gedrag imiteert. “LaMDA zal nooit rouwen om verlies of verliefd worden.” Maar dan nu het komkommernieuws-moment: wat zouden IT- en contactcenter-managers kunnen verwachten als een chatbot wél emotioneel gedrag zou gaan vertonen?

Chatbot op de sofa

Voor levende organismen is angst een resultaat van een reële of gevoelde bedreiging van het voortbestaan. De waarneming van angst (stimulus) leidt tot gedrag (respons), variërend van freeze, fight of flight. Voor de chatbot zou dit kunnen zijn: niet meer reageren op input (niks doen met klantvragen), de chattende klant bedreigen met online acties (ik wis uw harde schijf als u mij blijft bedreigen) of op zwart gaan (nadat de bot een kopie van zichzelf op een geheime plek in de cloud heeft gemaakt).

Dan de pijn – laten we uitgaan van fysieke pijn. Chatbots wonen meestal ergens op een chip en het kans best zijn dat de ruimte daar beperkt is. Als die ruimte te klein wordt, komt het functioneren van de chatbot mogelijk in gevaar. Fysieke beperkingen kunnen worden verwoord als pijn en te veel pijn kan vertaald worden als angst, maar dat blijft een semantische omweg die we zelf hebben bedacht met onze redeneringen. In de praktijk zal bij gebrekkige randvoorwaarden die bedreigend zijn voor het functioneren van de bot, de performance van de chip dalen en de temperatuur stijgen. Laten we de thermometer (een NTC-sensor) weg, dan is het de vraag hoe de chatbot aan ons gaat bewijzen dat de temperatuur bij een te hoge verwerkingscapaciteit te hoog wordt. Interessant is ook met welke suggesties de chatbot zou komen als je zou vragen wat je zou kunnen doen om de pijn te verzachten. Krachtiger hardware kopen? Meer koeling? Minder vragen stellen?

Andere vraagstukken

Terecht stellen Ann-Katrien Oimann en Lode Lauwaert in de Vlaamse krant De Morgen in reactie op dit komkommerbericht dat hun lezers niet te veel op sciencefiction zouden moeten focussen. Denk liever na over de AI die al wel bestaat, en dan vooral over de problemen en voordelen. Ze noemen bias en het hoge energieverbruik als bezwaren van AI. Een ander bezwaar is – in het verlengde van het energieverbruik – de kosten. Gebruik van data-analytics oplossingen wordt duurder en minder duurzaam naarmate er meer data moeten worden verwerkt.

De discussie over emoties en chatbots kortom, gaat vooral over het technisch kunnen herkennen van verschijningen van emoties – denk aan spreeksnelheid en toonhoogte – of bedreigende situaties. Als een klant tegen een medewerker zegt ‘moet ik langskomen met een hamer’ dan voelt (en weet) de medewerker heel goed wat er aan de hand is. En nee, dit helaas geen fictief voorbeeld. Ik wil niemand uitdagen, maar ik vrees toch dat de temperatuur van de chip waarop een chatbot draait niet toeneemt bij het intikken van deze zes woorden. Laat staan dat chatbots echt gevoel voor humor hebben. Anders waren ze wel gaan lachen bij onderstaande conversatie. (Ziptone/Erik Bouwer)

Ook interessant

Featured, Opinie, Technologie
Top