Emotiedetectie op de werkvloer, ook in klantcontact, valt vanaf 2 augustus 2026 onder de strenge regels van de AI Act. Ondertussen groeien emotiedetectie en sentimentanalyse naar elkaar toe. Wat mag wel en wat mag niet in contactcenters?
In het kort
- per 2 augustus 2026 treedt een nieuw onderdeel van de EU AI Act in werking
- het gaat dan om hoog-risico toepassingen zoals emotiedetectie
- emotieherkenning van werknemers is alleen toegestaan als het is gericht op training/coaching
- wie emotiedetectie bij agents en/of klanten toepast, moet een reeks van maatregelen nemen
Kortgeleden kwam de AP met een waarschuwing voor klantcontactorganisaties: de toepassing van emotiedetectiesystemen gaat gepaard met risico’s. De timing van die waarschuwing is goed gekozen: per 2 augustus 2026 gaat nieuwe regelgeving in rondom hoog-risicosystemen.
Sinds quality monitoring volledig geautomatiseerd kan worden, heeft ‘meeluisteren’ met gesprekken die agents met klanten voeren, een heel andere inhoud gekregen. Met de juiste software kan je álle gesprekken van álle medewerkers analyseren, van begin tot eind, en zowel realtime als achteraf. Vaak is dit soort functionaliteit onderdeel van een CCaaS-platform.
Meeluisteren 2.0
Geautomatiseerde oplossingen gericht op analyse van de interacties werken primair aan de hand van transcripten: spraak wordt omgezet in tekst, een NLP-model analyseert de tekstweergave van het klantgesprek. Steeds vaker worden bij deze analyses ook elementen uit de spraak betrokken, zoals intonatie, toonhoogte, spreeksnelheid, stiltes en volume. Dat geldt ook voor sentimentanalyse, de tooling die kan aangeven of de stemming in een klantgesprek positief, negatief of neutraal is. Verschillende leveranciers van sentimentoplossingen geven aan dat hun speech-analytics-toepassingen ook naar ‘akoestische eigenschappen’ van het gesprek kijken.
Dat beeld wordt bevestigd in een recente peiling van de KSF onder leveranciers en klantcontactorganisaties. Beide groepen geven aan dat emoties voornamelijk worden gemeten via spraakopnames, waarbij informatie over stemgeluid, intonatie of volume, maar ook pauzes of stiltes wordt meegenomen in de analyse. De KSF stelde ook vast dat respondenten het gebruik van emotieherkenning tijdens klantcontact niet direct kenbaar maken én dat ze zich bewust zijn van verschillende risico’s. De resultaten van de peiling maken deel uit van de Rapportage AI & Algoritmes Nederland (RAN), een rapport van de Autoriteit Persoonsgegevens uit juli 2025.
2 Augustus 2026: strenge regels voor AI-toepassingen zoals emotiedetectie
Als het gaat om emotiedetectie, begint de AI Act streng: het in de handel brengen, het in gebruik nemen voor dit specifieke doel of het gebruik van AI-systemen om ‘emoties van een natuurlijke persoon af te leiden op de werkplek’ valt in de categorie ‘verboden gebruik’– met uitzondering van gebruik voor medische of veiligheidsredenen.
Daarmee lijkt de toepassing van emotiedetectie verboden in bijvoorbeeld contactcenters. Toch is dat niet het geval; het verbod is doel- en context-gebaseerd. In de bijbehorende richtlijnen die de Europese Commissie heeft opgesteld bij de AI Act, is te lezen dat gebruik uitsluitend voor persoonlijke training/coaching van de medewerker buiten het verbod kan vallen — mits aan strikte waarborgen is voldaan.
“Het gebruik van webcams en spraakherkenningssystemen door een callcenter om de emoties van hun werknemers, zoals woede, te volgen, is verboden. Als ze alleen voor persoonlijke trainingsdoeleinden, zijn emotieherkenningssystemen toegestaan als de resultaten niet worden gedeeld met HR-verantwoordelijken en geen invloed kunnen hebben op de beoordeling, promotie enzovoorts van de getrainde persoon, op voorwaarde dat het verbod niet wordt omzeild en het gebruik van het emotieherkenningssysteem geen invloed heeft op de arbeidsrelatie.” (Annex III AI Act/ lid 254, pagina 85)
De AI Act is ook duidelijk als het gaat om klantcontact: “Het gebruik van spraakherkenningssystemen door een callcenter om de emoties van hun klanten, zoals woede of ongeduld, te volgen, is niet verboden op grond van artikel 5, lid 1, onder f), van de AI-wet (bijvoorbeeld om de werknemers te helpen omgaan met bepaalde boze klanten).” (Annex III AI Act/ lid 254, pagina 85)
Zodra een AI-toepassing emoties afleidt uit biometrische gegevens zoals stemgeluid (ook als deze gecombineerd worden met tekstanalyse), is het volgens Art. 3 (39) van de AI Act een ‘emotion recognition system’. ‘Emotieherkenningssystemen’ zijn volgens de AI Act bedoeld om emoties of intenties van natuurlijke personen te identificeren en af te leiden op basis van hun biometrische gegevens.
Met andere woorden: in de richtlijnen wordt de inzet van AI-gebaseerde emotiedetectiesystemen ten behoeve van training opgevoerd als toegestane uitzondering. Let wel: in bovenstaande toelichting wordt het verwerken van informatie over emoties van de medewerker niet vermeld.
Begripsverwarring, beleidsachterstanden en function creep
Ondanks de houvast die de richtlijnen bieden, roept de inwerkingtreding van dit tweede deel van de AI Act meerdere vragen op. We zetten ze hier op een rijtje.
Op de eerste plaats is de kans op begripsverwarring reëel. Hoewel het meten van het sentiment iets anders is dan het meten van emoties, groeien sentiment analyse en emotiedetectie naar elkaar toe en vertonen ze overlap. Ook leveranciers hanteren verschillende begrippen: van sentiment-analyse tot empathie-analyse en van emotieherkenning tot interaction analytics.
Verouderd beleid
Op de tweede plaats loopt het bestaande beleid uit het klantcontactvakgebied achter. Nederlandse contactcenters hebben bij de inzet van kwaliteitsmonitoring in contactcenters (ook) te maken met bepalingen in de cao. Volgens de nu lopende cao (2025-2027) komt kwaliteitsmonitoring neer op ‘het regelmatig controleren of alles goed gaat’. De cao meldt wel dat er een verschil is met voicelogging. De cao verwijst verder expliciet naar de ‘Richtlijn kwaliteitsmonitoring contactcentermedewerkers’ van WFC, opgesteld door de Klantenservice Federatie.
In die KSF-richtlijn uit 2015 is opgenomen dat QM-systemen zowel stem- als scherminformatie kunnen vastleggen. De richtlijn gaat alleen in op silent monitoring (meeluisteren op afstand), call recording (opnemen van aantal gesprekken en daarna beoordelen); side-by-side monitoring (buddy die naast de medewerker zit) en peer monitoring (medewerkers geven elkaar feedback). Ook is in de richtlijn opgenomen dat alle middelen die werkgever ten dienste staan om te kunnen monitoren, onder de werking van de KSF-richtlijn vallen. Begrippen als sentimentanalyse, emotiedetectie of ‘realtime’ komen niet in de KSF-richtlijn voor. Wel is vermeld dat de KSF de richtlijn periodiek zal evalueren. In 2019 heeft de KSF nogmaals aandacht besteed aan quality monitoring. Maar ook toen bleef het realtime monitoren van gespreksinhoud en emotie of sentiment buiten beschouwing.
Function creep
Op de derde plaats kan de technologie (het opnemen van gesprekken, het omzetten van spraak naar tekst, het analyseren van de tekst en het analyseren van de spraak) meerdere doelen dienen. Wat verstaan we onder quality monitoring en wanneer slaat dat om in interaction analytics inclusief emotiedetectie? Wie ontvangt de feedback, wanneer en met welk doel: realtime om direct te kunnen bijsturen zodat escalatie kan worden voorkomen? Of achteraf, om te coachen en de vaardigheden te verbeteren?
Daarbij is ook van belang te weten wat er wordt geanalyseerd: alleen datgene wat de klant zegt, of de volledige dialoog tussen klant en medewerker? En wie heeft bij welke gebruiksdoelen toegang tot welke informatie?
Het is mogelijk dat emotiedectiesystemen (of hun gebruikers) last krijgen van function creep. Bijvoorbeeld: een tool voor realtime coaching herkent dat een medewerker vaak de klant onderbreekt; op een later moment wordt deze informatie uit de scorecard toch in beoordelingsgesprekken gebruikt. De AI Act is helder: toepassing van emotiedetectie met het oog op prestatiebeoordeling of selectie is verboden.
Welke data gebruiken toonaangevende platforms? Hoewel de nadruk vaak op klantemotie ligt, worden ook agentgedrag en -toon in toenemende mate onderwerp van geautomatiseerde analyse.
Zo spreekt Calabrio over sentiment analyse die gebaseerd is op de emotionele toon van het hele gesprek, dus zowel de klant als de agent: “The AI Sentiment panel in the Media Player illustrates how agent and customer sentiment (emotion) changed over the course of a contact”, maar wordt de emotie van de agent niet gelabeld.
Ook de oplossing van Verint gebruikt voor de agent coaching zowel realtime transcriptie als ‘akoestische cues’.
De realtime sentimentanalyse van NiCE CXOne richt zich primair op de klant, maar monitort aan de hand van aparte modellen zaken aan de agentzijde, zoals empathie, beleefdheid of naleving van het script. NiCE biedt ook oplossingen voor real-time frustratie-detectie of interruptie-detectie als onderdeel van agent coaching tools.
Sentiment analyse van Genesys Cloud kan zowel realtime als na het gesprek worden toegepast en heeft geen betrekking op de emotie van de agent. Genesys besteedt overigens bij de technische documentatie expliciet aandacht aan de EU AI Act en vermeldt nadrukkelijk dat er geen biometrische informatie wordt gebruikt, ook niet voor de tool Agent Empathy Analysis van Genesys.
Talkdesk gebruikt bij sentiment analyse alleen speech-to-text en NLP; bij de aparte oplossing Voice Analytics maakt Talkdesk wel gebruik van vocal cues zoals tone, pitch, volume en tempo om emotionele toestanden (frustratie, voldoening, verwarring) te herkennen.
Emotiedetectie en klantcontactmedewerkers
Terug naar de kern: het op basis van AI monitoren van emoties van werknemers is verboden. De inzet van oplossingen voor emotiedetectie is in bepaalde gevallen echter toegestaan en dat valt de toepassing in de categorie ‘hoog risico’, zowel bij inzet voor klanten als medewerkers.
‘Hoog risico’ betekent in dit verband dat contactcenters bij emotiedetectie gericht op medewerkers moeten documenteren hoe ze compliance denken te waarborgen. Dat vraagt om specifieke governance: risicobeoordelingen, technische documentatie en logging van het gebruik, intern menselijk toezicht, interne opleidingen, audits en meer. Per augustus 2026 is volledige naleving van het bovenstaande verplicht. Het zorgvuldig afbakenen van, en toezien op het gebruik van emotiedetectie in een contactcenter is dus essentieel.
De AI Act stelt voor hoog-risico ai-systemen dat de meeste verplichtingen gelden voor de ‘aanbieder’, maar ook de ‘gebruiksverantwoordelijke’ blijft niet gespaard. Wie welke rol aanneemt, valt nog verder te bediscussiëren.
Emotiedetectie en klanten
De inzet van emotieherkenning bij consumenten wordt vanuit de AI Act niet op dezelfde behandeld. Wel moeten gebruikers van emotieherkenningssystemen betrokkenen die hieraan worden blootgesteld, informeren over de werking van het systeem, namelijk dat het emoties probeert te detecteren. Dat geldt dus ook voor klanten; informeren kan via een meldtekst of via het privacy statement. De AP stelt in haar AI-publicatie dat de uitleg over de inzet van emotiedetectie wel concreter moet zijn dan bijvoorbeeld enkel een algemeen begrip als ‘kwaliteits- en trainingsdoeleinden’.
Tot slot
De inzet van AI in klantcontact staat of valt met vertrouwen, zeker richting klanten. Heldere afspraken, transparante systemen en zorgvuldige toepassing zijn essentieel – niet alleen om boetes te voorkomen, maar vooral om medewerkers én klanten recht te doen. De komende 12 maanden zal blijken of klantcontactmanagers (en niet te vergeten de KSF en de sociale partners betrokken bij de cao) hun beleid, technologie, processen en governance goed weten af te stemmen op de eisen van de AI Act.
Tips
- inventariseer waar in de tooling biometrische kenmerken worden gebruikt;
- scheid indien nodig het klant- en agentkanaal in tooling;
- herzie realtime coaching-flows en check wat er in het personeelsdossier of bij HR belandt;
- ga tijdig aan de slag met de governance, zoals de transparantie-melding en het bijwerken van het privacy-statement en het voorbereiden van training, logging en audits.
Dit artikel kan worden aangevuld.
Met dank aan Gijs van Til, Data & Technology Advocaat bij Project Moore
(Ziptone/Erik Bouwer)
Featured, Technologie



