Agentic AI staat al een tijdje in de startblokken en heeft, naast een ongekend potentieel, ook alles in huis om hét nieuwe hoofdpijndossier van het contactcenter te worden.
Terwijl in klantcontact de inzet van GenAI zich voorlopig nog beperkt tot een klein specifieke toepassingen, zijn de grote consultancies druk bezig om de boardroom klaar te stomen voor de volgende hype. The next frontier, the next evolution, the agentic organization: Agentic AI wordt gebracht als the next big thing. Niet alleen voor ondernemingen in het algemeen, maar ook specifiek voor customer experience.
In “Future of CX Belongs to AI Agents and Intelligent Orchestration” schrijft Erik Linask (hoofdredacteur van IT-vakmedium TMCnet) dat agentic AI wat hem betreft een echte nieuwe stap in klantcontact is. In plaats van communiceren namens een organisatie, gaan bots handelingen uitvoeren. Daarbij is agentic AI volgens Linask een oplossing voor de belofte die bedrijven al heel lang doen aan klanten, maar niet waarmaken: naadloze dienstverlening leveren.
Voorspelling: groei, maar ook veel mislukkingen
Ook marktanalisten voorspellen een explosieve groei voor AI-agents in CX. Gartner voorspelt dat AI-agents in 2029 80% van de gangbare klantinteracties autonoom zullen afhandelen. Tegelijkertijd voorspelt Gartner dat meer dan 40% van de agentic AI-projecten tegen eind 2027 zal worden stopgezet.
Die tegenstelling is een goede manier om onrust in de markt te veroorzaken: we moeten met z’n allen een afslag nemen, maar een deel van ons gaat het niet redden.
Tot overmaat van ramp doet een deel van de leveranciers aan wat Gartner noemt ‘agent washing’: het rebranden van bestaande producten, zoals AI-assistenten, RPA en chatbots, zonder echte agentic mogelijkheden te bieden. Gartner schat dat slechts ongeveer 130 van de duizenden leveranciers van agentic AI ‘echt’ zijn.
Zoals altijd met nieuwe technologie zijn er ook op het vlak van agentic AI koplopers en achterblijvers en moet de grote middenmoot nog beginnen. Gartner voorspelt dat in 2028 ten minste 15% van de dagelijkse werkbeslissingen autonoom zal worden genomen door middel van agentic AI, tegenover 0% in 2024.
‘Van copilot naar autopilot’
Verzekeraar Allianz Research kwam kortgeleden met een analyse. Allianz Research noemt agentic AI de volgende grote technologische golf, die bovendien specifiek relevant is voor klantenservice. AI kan daar niet alleen optreden als ondersteuner, maar ook het roer overnemen: van co-pilot naar autopilot. Dat betekent volgens Allianz ook dat agentic AI in sterkere mate menselijke taken kan overnemen dan genAI. Hoewel veel organisaties voorlopig nog zullen kiezen voor de inzet van AI waarbij mens en AI samenwerken, wijst Allianz erop dat de technologie zich snel richting autonome AI-toepassingen beweegt.
Daarbij heeft agentic AI meer ‘substitutiepotentieel’ – ofwel AI neemt een groot deel van de taken over – dan generatieve AI. De analisten van Allianz pleiten daarom voor meer aandacht voor ‘reskilling’ en ‘upskilling’ bij werknemers die worden verdrongen. Ook suggereren ze de invoering van een AI Displacement Insurance (AIDI).
Mythes rondom agentic AI
Jarrod Davis, die zichzelf beschouwt als contact center provocateur, lijkt ook sceptisch. Dat is opmerkelijk, want hij is werkzaam bij Cognigy. Hij stelt in een ‘myth busting-artikel’ op ICMI dat implementaties van agentic-AI relatief snel kunnen verlopen, maar dat betekent niet dat ze eenvoudiger zijn. Er is structuur vereist om rekening te houden met en uitvoering te geven aan de beperkte autonomie (inclusief hoe om te gaan met randgevallen). Hij zegt dat je agentic oplossingen niet moet beschouwen als scriptgebaseerde toepassingen, maar als agents die training, toezicht en governance vereisen.
Prompt & pray
Prompt-gebaseerde AI-agents (hij noemt dit ‘prompt & pray’) vormen in de ogen van Davis een risico. “Ze kunnen er in een demo elegant uitzien, maar ze bezwijken onder de complexiteit van een onderneming. Een wirwar van tekstvelden heeft niet de kracht om volledig tegemoet te komen aan de eisen van gereguleerde omgevingen met grote volumes. Ondernemingen hebben nog steeds deterministische flows, systeemintegraties en monitoring nodig om compliance, beveiliging en randgevallen af te handelen. Zonder deze elementen kunnen promptgebaseerde systemen afdrijven, snel tegen een muur aanlopen en op schaal falen,” aldus Davis.
Ook wijst Davis op het risico van het automatiseren van oude processen. “De meest succesvolle resultaten werden behaald toen teams de workflows volledig opnieuw ontwierpen om ze af te stemmen op de samenwerking tussen AI en mensen. Davis haalt Joanne Wright van IBM aan: ‘Voordat je nieuwe technologie toepast, moet je beslissen wat je niet meer gaat doen’.”
De belangrijkste mythe is wel dat AI de kosten onmiddellijk zou verlagen. “Organisaties die Agentic AI implementeren, zien in eerste instantie mogelijk kostenbesparingen, maar ook een stijging van de TCO als gevolg van investeringen in infrastructuur, integratie en training,” aldus Davis. Agentic levert bijvoorbeeld terugkerende kosten op voor monitoring en nieuwe releases.
Volledig onvoorbereid op de risico’s
Reid Blackman is auteur van het boek ‘Ethical Machines’ en is oprichter en CEO van Virtue, een adviesbureau dat zich richt op vraagstukken over ethische risico’s rond AI. Blackman stelt dat organisaties volledig onvoorbereid zijn op de risico’s van agentic AI. Een van de belangrijkste punten die hij aanreikt in een stuk op Harvard Business Review is dat organisaties zich bewust moeten blijven van waar ze zich bevinden op de complexiteitscurve van agentic AI.
“Niemand weet precies hoe dit allemaal (agentic AI, red.) zal uitpakken, maar afgezien van de details overwegen leiders de zeer reële mogelijkheid van grootschalige organisatorische verstoring. Het is een spannende tijd,” aldus Blackman.
Ook huidige AI-toepassingen en -systemen kunnen hoofdbrekens opleveren. Zaken als AI-hallucinaties, deepfakes, het gevaar van banenverlies, schendingen van intellectueel eigendom, discriminerende output, schendingen van de privacy, het black box-karakter: ze komen allemaal tezamen bij agentic AI. Blackman waarschuwt dan ook voor een opeenstapeling van risico’s.
Risico’s en complexiteit nemen snel toe
Die opeenstapeling legt Blackman als volgt uit. Het werken met een LLM is relatief eenvoudig is: een prompt leidt tot een output. In die situatie zijn risico’s en werkingssfeer afgebakend, meestal is er een human in the loop en het proces kan gemakkelijk worden gestopt. Maar het koppelen van een LLM aan een database met CV’s maakt het al een stuk ingewikkelder. Wanneer een LLM verbonden wordt met meerdere databases en het internet, neemt de kans op afwijkende, foute of bevooroordeelde output snel toe. Wanneer zo’n systeem digitale acties mag uitvoeren, spreek je van een multi-model agentic AI. Als een multi-model agentic AI-systeem mag communiceren met andere multi-model agentic AI-oplossingen in een organisatie, heb je een intern multi-model multi-agentic AI-platform. En wanneer dat mag communiceren met AI-agents buiten de organisatie, ontstaat er wat Blackman noemt “een duizelingwekkende wirwar van onberekenbare risico’s”.
Human in the loop wordt zinloos
Het maken van goede risicoanalyses is volgens Blackman beslist nog niet mogelijk voor de laatste drie varianten; de eerste twee leveren al erg veel hoofdbrekens op. Dat ligt onder meer aan de veelheid aan interactieknooppunten, maar ook aan het vermogen om als human in the loop nog op een zinnige manier de impact te bepalen van output van een complex systeem. Laat staan dat er op een goede manier beslissingen kunnen worden genomen voordat dergelijke complexe systemen wel of niet worden geïmplementeerd. Realtime monitoring van dit soort systemen, een enorme opgave, moet nog worden ontwikkeld, net als effectieve interventiemethoden. Black noemt dit dan ook een ethische nachtmerrie, te meer omdat AI zich blijven ontwikkelen van beperkte tools tot geavanceerde multi-agentic systemen die werken met snelheden en op een schaal die het menselijk toezicht te boven gaan.
Scenario: wanneer agentic AI misgaat – BCG komt in een position paper met uiteenlopende (anonieme) voorbeelden van use cases. Een daarvan is het proactief en end-to-end omboeken van een vlucht op basis van anticiperen op veranderende weersomstandigheden. Een AI-agent zou bij het omboeken van de vlucht naar de volgende dag kunnen afgaan op wat er bekend is over de klant, zoals tijdstip en voorkeursstoel. Er kan tevens een hotel worden geboekt voor de overnachting. Als het omboeken gelukt is, informeert de AI-agent de passagier door middel van een call. Dit scenario kan goed uitpakken, maar er zijn ook andere uitkomsten mogelijk (die BCG niet beschrijft):
- de AI-agent kan de vlucht verplaatsen, maar weet niet dat de klant de volgende dag een belangrijke afspraak heeft en dus niet kan reizen;
- de klant geeft geen toestemming voor het boeken van een hotel of het wijzigen van een ticket;
- een automatisch telefoontje naar de passagier leidt tot verwarring of paniek omdat de boodschap onduidelijk en de verkeerde timing heeft;
- de klant wil uitleg en de customerservice-medewerker weet niet hoe de beslissing tot stand is gekomen.
Wat betekent dit voor de toekomst van CX en klantcontact?
Voor CX en klantcontact leveren de scenario’s die Black schetst enorme uitdagingen op, die niet te vergelijken zijn met de huidige vorm van ‘human in the loop’ (zoals het beoordelen van een door AI geproduceerde gesprekssamenvatting). De snelheid en de onvoorspelbaarheid van (on)gewenste uitkomsten die AI-agents mogelijk gaan produceren, zullen in customer service voor nieuwe uitdagingen gaan zorgen die ver boven ‘computer says no’ uitstijgen.
Contactcenters die “niet aan AI doen”, zullen vroeg of laat geconfronteerd worden met organisaties of consumenten die “wel aan AI doen”. Dat kan gaan om het succesvol kunnen integreren met AI-agents van derden of om het kunnen reageren op negatieve effecten van AI-agents (of multi-model multi-agentic AI-platforms) van derden.
Praktisch vertaald: AI-agents die oncontroleerbare of schadelijke acties uitvoeren namens bedrijven of consumenten. Zo kan een hallucinatie van een AI-agent bijvoorbeeld leiden tot het automatisch versturen van duizenden foute facturen of misleidende contractwijzigingen. Managers lopen in zo’n scenario niet alleen het risico dat zij pas achteraf ontdekken dat systemen beslissingen hebben genomen die impact hebben op duizenden klanten. Het black box-karakter maakt het ook vrijwel onmogelijk om te achterhalen waarom een klant een bepaald antwoord of oplossing kreeg.
Praktische vragen voor de denktank
Agentic AI kan volledige klantcontactprocessen overbodig maken, maar tegelijk nieuwe workloads creëren. De stap van narrow AI naar multi-agentic platforms is geen incrementele verbetering, maar een extreme sprong in complexiteit. CX specialisten en contactcentermanagers zouden daarom verder moeten kijken dan hun huidige AI-roadmap of AI-stip op de horizon. Praktische vragen om in de denktank te stoppen: welke processen zouden wat ons betreft nooit autonoom mogen worden uitgevoerd? Hoe voorkomen we verlies van controle? Hoe gaan we onze medewerkers voorbereiden op de samenwerking met AI-agents die wellicht meer kunnen en mogen dan zijzelf?
(Ziptone/Erik Bouwer)
Voor wie meer wil lezen over Agentic AI in customer service: een verhelderend white paper van BCG: Unlocking Impact from Agentic AI in Customer Service, september 2025
Featured, Kennisbank, Technologie



