“ChatGPT draagt voorlopig niet bij aan CX”

by Ziptone

“ChatGPT draagt voorlopig niet bij aan CX”

by Ziptone

by Ziptone

ChatGPT voor contactcentersEen goed begrip van de klantvraag is het vertrekpunt voor effectieve dienstverlening, ongeacht of die nu door mensen of door geautomatiseerde systemen wordt geleverd. De vraag die velen bezighoudt: wat is de betekenis van ChatGPT3 voor klantcontact?

 

“Er is al veel gezegd en geschreven over ChatGPT3. De oplossing is op dit moment, hoe zeer de output soms ook tot de verbeelding kan spreken, primair een website waar je interactie kunt aangaan met een schrijvende kunstmatige assistent,” zegt Sander Hesselink van Telecats. “Die assistent wordt steeds beter door het toevoegen van nieuwe data. Maar in alle berichten over ChatGPT3 blijven een paar essentiële eigenschappen onderbelicht.”

 

Lees ook: ChatGPT inzetten voor klantcontact: veelbelovend of hype?

Papegaai

Op de eerste plaats, aldus Hesselink, is de dataset waarmee ChatGPT3 tot nu toe werkt, steeds een jaar oud. “Dat betekent dat nieuwe inzichten niet als bron worden meegenomen voor de output.”

Op de tweede plaats is ChatGPT3, wat wetenschappers noemen, een ‘stochastische papegaai’: een systeem dat woorden en tekens terug ‘papegaait’ op basis van wat het eerder aan teksten gezien heeft. Hesselink: “ChatGPT3 legt geen verband met betekenis. De tekst die er op basis van een opdracht uitrolt, komt tot stand op basis van waarschijnlijkheid. Het systeem begrijpt het zelf niet.”

Op de derde plaats komt er steeds meer content afkomstig van AI-toepassingen zoals ChatGPT3 terug op het internet. Hesselink: “Dat is geen verrijking, maar een uitbreiding van bronnen die mogelijk onbetrouwbaar zijn. Doordat bepaalde teksten of gegevens vaker voorkomen, neemt de kans toe dat andere AI-systemen deze ten onrechte als juist gaan zien. AI-oplossingen worden zo getraind met steeds meer ook ongecontroleerde bronnen, waarvan we weten dat er veel onwaarheden in kunnen staan.”

Toepassingen in klantcontact

Wat kunnen we – in klantcontact – wél met oplossingen zoals ChatGPT3? Hesselink komt met een rijtje mogelijke toepassingen voor zoals hij zegt “de periferie van klantcontact”. “Denk aan een opdracht als ‘stel tien verschillende berichten op die aan de klant melden dat een pakket later zal worden bezorgd’ – iets wat je ook voor chatbotdialogen zou kunnen gebruiken. Of formuleer een excuusbrief, schrijf een tekst voor een marketingbericht of maak een instructie voor het installeren van een apparaat.”

Voordeel van dit soort opdrachten is dat de output er in ieder geval uitkomt met één bepaalde tone of voice, die je ook vooraf kunt omschrijven in je opdracht. Aan de andere kant, zo zegt Hesselink, hebben de meeste bedrijven dit soorten teksten vermoedelijk al beschikbaar.

‘AI-assist’

Een tweede toepassingsgebied is wat Hesselink betreft het ondersteunen van klantcontactmedewerkers in hun werk. “ChatGPT kan je op weg helpen om een onderwerp te verwoorden of om teksten te herschrijven. Maar ik vrees dat als we hiervoor robots gaan inzetten, die als een soort rekenmachine nieuwe taal voor je produceren, medewerkers de stap overslaan om bepaalde materie te doorgronden en zich echt eigen te maken. Dat leerproces – noem het geworstel met lastige materie – leidt nou juist tot persoonlijke groei en ontwikkeling. Met die ‘taalrekenmachine’ zetten we dit op het spel.”

Persoonlijke selfservice?

Een andere voor de hand liggende oplossing die ChatGPT voor contactcenters zou kunnen bieden, ligt op het vlak van persoonlijke selfservice. Hesselink acht de kans niet groot dat dit snel realiteit wordt: “Voor dienstverlening die verder gaat dan het beantwoorden van algemene vragen heb je vaak klantgegevens nodig. ChatGPT3 werkt tot nu toe alleen met open data uit bronnen die vrij beschikbaar zijn op het internet. Het lijkt me niet de bedoeling dat ChatGPT3 voorzien wordt van een instructie die ook allerlei klantgegevens bevat, om zo de klant beter van dienst te kunnen zijn. Het is niet alleen vrijwel onmogelijk om ChatGPT3 te voorzien van kaders zodat er een GDRP-compliant antwoord uitkomt, voor het gebruik van klantdata gelden ook regels zoals de AVG. We weten niet waar de informatie, die je aan ChatGPT3 verstrekt, precies wordt opgeslagen. Het zou mij niet verbazen als er nu al privacy-inbreuken worden gepleegd omdat mensen persoonsgegevens aan ChatGPT3 verstrekken.”

Conclusie

De conclusie? Als het gaat om het beter van dienst zijn van klanten aan de hand van gebruik van data – zoals beoogd wordt met bijvoorbeeld echt goede chatbots – dan daar gaat ChatGPT3 nu niet bij helpen. “Willen we een tool als ChatGPT inzetten voor gericht klantcontact, dan zullen we eerst een aantal problemen moeten oplossen rond betrouwbaarheid en gegevensbescherming.”

 

Er zijn al veel verschillende toepassingen van ChatGPT3 ontwikkeld en toegepast. Ziptone licht er een paar uit.
En wat zeggen Seth Godin en Sander Duivestein over ChatGPT?

DoNotPay, een bedrijf dat administratieve taken automatiseert, waaronder het betwisten van parkeerboetes en het aanvragen van compensatie van luchtvaartmaatschappijen, heeft deze week een video vrijgegeven van een chatbot die namens een klant onderhandelt over de prijs van internetdiensten. De onderhandelaar-bot is gebouwd op de AI-technologie die ChatGPT aandrijft. De bot klaagt over een slechte internetservice en pareert de punten die een Comcast-agent in een online chat heeft gemaakt, waarbij de bot met succes onderhandelt over een korting ter waarde van 120 dollar per jaar.

Koko, een mobiele app voor geestelijke gezondheidszorg, testte door AI gegenereerde reacties zonder eerst de ontvangers daarvan op de hoogte te stellen. Koko-oprichter Rob Morris onthulde op Twitter dat 4000 mensen counseling hadden gekregen met behulp van ChatGPT3. Volgens Morris werden de berichten aan clienten die afkomstig waren van ChatGPT3 aanzienlijk hoger gewaardeerd dan berichten geschreven door mensen. De responstijden daalden met 50%, tot ruim onder een minuut. Hoewel de output van ChatGPT3 werd gemonitord door medewerkers, waren de reacties van gebruikers uiteindelijk overwegend negatief.

Andere toepassingen zijn bijvoorbeeld het verbinden van ChatGPT3 met WhatsApp of het genereren van e-mails en Twitterberichten. ChatGPT3 van OpenAI is overigens niet de enige applicatie die in ontwikkeling is. BlenderBot3 van Meta is ook vrij toegankelijk, en ook Google werkt aan een large language model met de naam LaMDA.

Seth Godin (internetondernemer, spreker en auteur) is uitermate kritisch over ChatGPT. “Natuurlijk verandert dit dingen, net zoals de camera, de typemachine en het internet dingen veranderden. Het betekent dat het maken van grote hoeveelheden middelmatig materiaal gemakkelijker is dan ooit tevoren.” Godin waarschuwt ervoor dat aandacht en vertrouwen niet schaalbaar zijn. “Technologie begint met het makkelijker maken van oud werk, maar vereist vervolgens dat nieuw werk beter is.”

Sander Duivestein (onder meer verbonden aan Verkenningsinstituut Nieuwe Technologie (VINT), onderdeel van Sogeti) gaat een stap verder en wil ChatGPT verbieden vanwege de risico’s. “Het grote gevaar is dat de machinale verzinsels voor waarheid worden aangenomen, omdat de uitkomsten zo levensecht lijken.” Een machine die beter dan mensen in staat is om misinformatie te verspreiden moet niet bewonderd worden, maar verafschuwd en zelfs verboden, aldus Duivestein.

(Ziptone/Erik Bouwer)

Ook interessant

Featured, Kennisbank, Technologie

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Top