Worden agents vervangen door bots? Tegenwoordig geloven weinig mensen dat AI in staat is het klantcontact grotendeels over te nemen. Empathie en complexe gesprekken? Daar heb je mensen voor nodig. Maar hoe lang nog?
Er zijn minstens drie redenen om te blijven nadenken over de vraag of AI straks zelfstandig gesprekken kan voeren met klanten. De technologische ontwikkelingen laten zien dat we al een eind op weg zijn; er is een aanhoudende drang naar kostenbesparing binnen contactcenters; en het verdienmodel van CCaaS-leveranciers is toe aan een nieuwe impuls. In deze analyse gaan we dieper op deze drie factoren in.
De technologie
Allereerst: wat technologisch mogelijk is, zal ook gebruikt worden – tenzij het potentieel te beperkt is of tegenkrachten sterk genoeg zijn. In de afgelopen twaalf maanden hebben de grootste technologiebedrijven wereldwijd, waaronder Amazon, Microsoft, Anthropic, Meta en Alphabet (Google), gezamenlijk meer dan 200 miljard dollar geïnvesteerd in nieuwe en laagdrempelige toepassingen zoals Retrieval-Augmented Generation (RAG) en Large Language Models (LLM’s). Ook zijn er tientallen miljarden dollars gestoken in een veelheid aan AI-startups; bijna tweemaal zo veel als in 2023. Investeringsrondes gaan nog steeds gepaard met grote bedragen: OpenAI haalde in oktober 2024 nog ruim 6,6 miljard dollar op bij onder andere Microsoft en Nvidia.
LLM’s ontwikkelen zich door
In de afgelopen periode zijn LLM’s en RAG aanzienlijk beter geworden. Door de integratie van LLM’s met RAG is de kans op hallucinaties en het gebruik van verouderde informatie afgenomen. Ook nieuwe methoden zoals Iter-RetGen zorgen ervoor dat LLM’s met meer relevantere informatie werken, wat de kwaliteit van de output aanzienlijk verbetert. LLM’s zijn bovendien inmiddels in staat om langere en complexere teksten te verwerken. Ook multimodale modellen zijn vele malen beter geworden op het vlak van afbeeldingen, audio en video. Ook gaan knowledge graphs een steeds groter rol spelen in het goed organiseren van de informatie waarmee GenAI moet werken om te komen tot meer betrouwbaarheid, transparantie en accuraatheid.
Bovenstaande factoren spelen vooral een rol bij tekstgebaseerde kant van klantcontact: de dialoog. Als het aankomt op het uitvoeren van handelingen of doorvoeren van transacties, ook een belangrijk onderdeel va het werk van klantcontactmedewerkers, is RAG in combinatie met LLM’s niet altijd toereikend. Daarvoor zijn andere vormen van AI nodig.
De kunst afkijken van echte agents?
Op dit moment gebruiken contactcenters AI-systemen die meeluisteren en gespreksdata samenvatten of het sentiment analyseren: overwegend ondersteunende taken. Customer facing AI is alleen nog voorbehouden aan chatbots en een enkele voicebot. Veel leveranciers verwachten dat, met de voortdurende investeringen en technologische vooruitgang, het waarschijnlijk is dat AI-systemen in de komende drie tot vijf jaar in staat zullen zijn om complexere klantinteracties autonoom af te handelen. CCaaS-leveranciers hebben de afgelopen tijd geïnvesteerd in R&D-programma’s gericht op AI-agents ofwel Agentic AI, waarbij het autonoom uitvoeren van acties het uitgangspunt is.
De Agentic AI-oplossingen kunnen veel leren van de enorme hoeveelheden klantgesprekken waartoe CCaaS-leveranciers via hun klanten over kunnen beschikken. Daarin zit informatie over de klantvraag en de geboden oplossing, het sentiment, empathie en vaak ook context – zeker als je het vergelijkt met data uit kennisbanken. Met dit soort datasets is supervised learning goed mogelijk, maar alleen als de klantenservice van zeer goed niveau is. Rammelende klantenservice is niks anders dan een slecht voorbeeld voor AI.
Hindernissen en beperkingen van AI
Bij complexe en emotionele situaties kan AI het niet alleen af en is menselijke tussenkomst noodzakelijk, zo is de overtuiging. Het gaat dan zowel om empathisch reageren als om een adequate inhoudelijke reactie die past bij de situatie. Op Ziptone hebben we al eerder betoogd dat AI prima empathisch kan overkomen. Bij AI is die empathie gesimuleerd; we gaan er misschien wat te gemakkelijk vanuit dat empathie bij mensen authentiek en intrinsiek-gedreven gedreven is. Ook agents kunnen op de automatische piloot ‘acteren’.
Tot voor kort was ambiguïteit in menselijke uitingen een lastig verschijnsel voor AI: denk aan de situatie waarbij een klant sarcastisch opmerkt “Ik ben echt reuzeblij met jullie service”. Die beperking rond sarcasme en humor kwam vooral door de ‘rules-based’ modellen achter sentiment-analyse: woorden worden gecategoriseerd als positief of negatief, en met behulp van machine learning werden algoritmes getraind om tekst te classificeren.
Sarcasme en andere ingewikkelde uitingsvormen
Inmiddels zijn AI-modellen steeds beter in staat om ambigue informatie zoals sarcasme te herkennen en mee te nemen in de output. De basis blijft bestaan uit reguliere sentiment-analyse, maar deze wordt aangevuld met informatie over ‘sentiment-shifts’: subtiele veranderingen in de emotionele lading van een tekst, waarbij elkaar opvolgende onderdelen van tekst onderling worden vergeleken. Hierdoor kan een model tegenstrijdigheden vaststellen: ‘wat een geweldige service’ versus ‘ik sta al een uur in de wacht’. Daarbij let een model met behulp van specifiek getrainde toepassingen bijvoorbeeld op specifieke stijlfiguren zoals hyperbolen. Deze AI-modellen kunnen bovendien getraind worden op bestaande, gemarkeerde voorbeelden van sarcasme.
Dit soort ‘vermogens’ kunnen getraind worden via supervised learning en reinforcement learning op basis van menselijke feedback (RLHF). Als aan deze voorwaarden is voldaan, kan AI iteratief leren van mislukkingen en zo steeds beter worden in het hanteren van complexe situaties. Er blijven dan nog steeds situaties over waar AI niet mee om kan gaan, bijvoorbeeld omdat ze onvoldoende zijn voorgekomen.
Ethische kant van slimmere AI
Wanneer het werkgebied van AI meer opschuift richting complexe, gevoelige en emotionele onderwerpen, komt ook de ethische discussie meer naar de voorgrond. De AI Act schrijft voor dat het altijd duidelijk moet zijn dat de klant met een robot ‘spreekt’. Naarmate robots in sterkere mate empathisch gedrag gaan vertonen terwijl bekend is dat het om een robot gaat, neemt de kans op een negatieve beoordeling toe, zo blijkt uit onderzoek, onder meer van Tilburg University. Ofwel: zodra de interactie zó ‘menselijk’ wordt dat het niet meer helemaal voelt als technologie, kunnen gebruikers zich ongemakkelijk voelen of het juist als onecht en manipulatief ervaren. Dit fenomeen wordt vaak gerelateerd aan de zogenoemde “uncanny valley”. Consumenten hebben de neiging een robot meer te vertrouwen als ze weten dat ze ook écht met een robot te maken hebben. Bedrijven zullen de komende tijd nog beter moeten leren balanceren tussen kostenbesparing en klantvertrouwen.
‘Nieuwe vragen’ blijven ingewikkeld voor chatbots
Het klopt dat AI situaties die afwijken van wat het eerder heeft gezien, moeilijk kan interpreteren. Nieuwe of ongebruikelijke vragen of emoties vereisen improvisatie en creativiteit die AI (nog) niet volledig beheerst. Ook is AI nog niet goed in staat om zich realtime aan te passen aan unieke of nieuwe omstandigheden in een gesprek. Denk aan een follow-upvraag die niet standaard is, plotselinge wendingen in een gesprek of een emotie die omslaat. Vooralsnog zijn mensen beter dan AI in staat om met dit soort, soms subtiele, variaties (zoals aarzelingen in de stem, een stilte, of onverwachte toonveranderingen) om te gaan en creatieve of intuïtieve oplossingen te bedenken voor unieke situaties. Menselijke agents kunnen, dankzij hun empathie en moreel besef, beslissingen nemen die verder gaan dan protocollen, zoals extra inspanning leveren, uitzonderingen te maken of omwegen te bedenken. Van mensen wordt ook verwacht dat zij culturele nuances beter kunnen plaatsen. Maar ze kunnen ook immorele beslissingen nemen en discrimineren is niet alleen een activiteit van algoritmen.
Ondertussen wordt er verder gebouwd aan taal- en spraakmodellen. Recent is een nieuw programma gestart in Nederland: HOSaN, ofwel Hoogwaardige Spraakmodellen voor alle Nederlanders, de spraak-variant van GPT-NL en relevant voor de klantcontactsector. In dit model wordt werk gemaakt van een beter begrip van de stemmen van ouderen en kinderen, mensen die een dialect gebruiken of tweedelanders (EU-burgers met een andere nationaliteit dan de Nederlandse). HOSaN kan bijdragen aan meer inclusieve voicebots.
AI en kostenbesparing in contactcenters
Kostenreductie heeft bijgedragen aan de opkomst van IVR-systemen, selfservice-omgevingen, FAQ’s, webformulieren en chatbots. AI in contactcenters belooft de eerstvolgende kostenkiller te worden. De inzet van geautomatiseerd samenvatten wordt vaak gepresenteerd als oplossing die het werk van agents kan veraangenamen. Maar meten contactcentermanagers de reductie in AHT of de gestegen medewerkertevredenheid? Hetzelfde geldt voor geautomatiseerde quality monitoring: naast ‘alle gesprekken beoordelen’ scheelt AQM ook tijd (of FTE’s aan coaches). Krijgen medewerkers na invoering van AQM ook meer persoonlijke aandacht van coaches?
Met nieuwe technologische mogelijkheden zoals realtime vertalen komen outsourcing en offshoring in een ander daglicht te staan. Met AI die eerst meeluistert, dan leert en daarna zelfstandig gesprekken gaat voeren krijgen bedrijven de kans om klantgesprekken geautomatiseerd af te laten handelen.
Bij realtime spraakvertalen blijft latency een rol spelen, niet alleen door technische factoren, maar ook vanwege het feit dat voor een goede vertaling het vaak noodzakelijk is de klant te laten uitpraten. Maar een krimpende arbeidsmarkt met toenemende concurrentie en stijgende loonkosten zullen de druk om technologische oplossingen te ontwikkelen en te implementeren verder opvoeren.
Implementatiekosten
Het implementeren van AI-gebaseerde oplossingen kost echter ook wat. In veel gevallen zal het nodig zijn orde op zaken te stellen in de datahuishouding en de infrastructuur. Er zijn ook ontwikkelingen die op termijn een dempend effect op de infrastructuurkosten kunnen hebben. Zo kan de opkomst van optische verbindingen in de hardware van datacenters (in plaats van koper-gebaseerde chip-to-chip verbindingen) het trainen van AI-modellen versnellen en de infrastructuurkosten verlagen, verwacht IBM.
Daarna komen de kosten voor implementatie en integratie van AI-systemen, waarvoor ook licentiekosten moet worden opgehoest. De gebruikskosten van oplossingen zoals AI-agents zijn op dit moment niet altijd goed voorspelbaar. Ook het onderliggende dataverkeer kan een flinke kostenpost worden. Daarmee is het opstellen van een positieve businesscase ingewikkeld, nog los van de mogelijk nadelige impact van AI op de klantbeleving. Daarnaast zijn er mensen nodig die de doorlopende controle en beheer van AI-systemen voor hun rekening nemen.
Een deel van die controle kan overigens buiten je eigen organisatie komen te liggen: bijvoorbeeld bij (meerdere) gespecialiseerde AI-leveranciers. Dat kan ertoe leiden dat organisaties geen eigen ‘intelligente laag’ opbouwen, waarmee de technical debt ongemerkt groeit. Ook kan het leiden tot versnippering in de kostenstructuur, met als nadeel minder overzicht.
Het bestaande verdienmodel van CCaaS-leveranciers gaat op de helling
Op de derde plaats is het bestaande businessmodel van CCaaS-leveranciers een driver voor de verdere ontwikkeling van autonome AI-systemen voor customer service. CCaaS-spelers verdienen hun geld momenteel op basis van het maximaal gelijktijdig ingelogde medewerkers – een variant op het licentiemodel – soms met een multiplier van het aantal uren.
Een afname van het aantal menselijke agents vormt een bedreiging voor het verdienmodel van CCaaS-spelers. Hoewel zij met hun aanvullende AI-agents en andere AI-diensten momenteel deels hun eigen markt kannibaliseren, zullen AI-agents op de middellange termijn vooral een nieuw verdienmodel worden. Momenteel zijn de meeste tariefstructuren van AI-agents gebaseerd op het aantal AI-interacties, op de complexiteit van taken of op een bepaalde uitkomst.
Wat zorgt straks voor een omslag?
AI heeft in klantcontact al een aanzienlijke technologische vooruitgang geboekt, maar volledig autonome klantgesprekken blijven een uitdaging vanwege complexiteit, ethische zorgen en de noodzaak van menselijke empathie in emotionele situaties. De vraag is echter wat er nodig is aan kostendruk en technologische ontwikkeling om te zorgen voor een omslag. Aan de technologieleveranciers zal het niet liggen. (Ziptone/Erik Bouwer)
Met dank aan Carla Verwijmeren, partner en CCO van Y.digital