De Deense werkgeversorganisatie Dansk Industri (DI) heeft een leidraad ontwikkeld waarmee organisaties op verantwoorde wijze aan de slag kunnen met AI-assistants. De leidraad helpt met EU AI Act compliancy.
De Deense leidraad is de opbrengst van een publiek-private samenwerking en moet zorgen voor een veilige en juridisch verantwoorde implementatie van AI-assistants. Volgens André Rogaczewski, voorzitter van Danish Industry Digital (DI Digital), de tech-tak van Dansk Industri en directeur van Netcompany draagt kunstmatige intelligentie bij aan efficiëntie en duurzaamheid. Denemarken wil dit jaar nog verschillende AI-initiatieven op landelijke schaal uitrollen. Rogaczewski benadrukt dat veel AI-assistants eerst intern worden gebruikt en daarna in customer facing processen worden ingezet.
Negen stappen
De Deense leidraad “Responsible Use of AI Assistants in the Public and Private Sectors” bestaat uit negen stappen. Voor Nederlandse organisaties biedt dit rapport een praktische leidraad om gestructureerd aan de slag te gaan met AI in klantcontact. De leidraad benadrukt het belang van een iteratieve aanpak waarbij steeds opnieuw getoetst en verbeterd wordt.
Het stappenplan omvat negen punten die cruciaal zijn voor succesvolle AI-integratie:
- Bepaal de use-case: Duidelijkheid over de specifieke taak en waarde van de AI-assistent is essentieel. Bijvoorbeeld: Kan een AI-chatbot het aantal herhaalde klantvragen verlagen en daarmee de klanttevredenheid verhogen?
- Technisch platform: Zet de AI-assistent op een flexibele technische infrastructuur die schaalbaar is en veilig integreert met bestaande systemen zoals CRM- en kennisbanken.
- Data-analyse en -verwerking: Garandeer dat de AI-toepassing betrouwbare en relevante data gebruikt. Een praktische toepassing hiervan is retrieval-augmented generation (RAG), waardoor AI altijd actuele klantinformatie biedt zonder privacyregels te schenden.
- Wettelijk kader: Voldoe aan relevante regelgeving zoals GDPR en de aankomende Europese AI Act (AIA). Het rapport biedt een checklist waarmee organisaties hun compliance eenvoudig kunnen toetsen. Het stappenplan helpt organisaties te bepalen of hun AI-assistent in de categorie ‘hoog risico’ valt en welke aanvullende maatregelen (zoals menselijke supervisie, gedetailleerde logging en risicobeoordelingen) ze moeten treffen om compliant te blijven.
- Grenzen stellen: Bepaal duidelijk de taken en verantwoordelijkheden van de AI-assistent. Zo voorkom je dat AI ongewenste beslissingen neemt of gevoelige informatie deelt.
- Kwaliteitsborging: Implementeer structurele kwaliteitscontroles, zoals red-teaming, waarbij experts AI actief testen om risico’s vroegtijdig op te sporen en aan te pakken.
- Monitoring en data-opslag: Leg interacties en beslissingen van AI-assistenten zorgvuldig vast, zodat fouten traceerbaar zijn en verbeteringen systematisch worden doorgevoerd.
- Organisatorische implementatie en training: Bereid medewerkers goed voor op veranderingen door gerichte training en ondersteuning, waardoor weerstand afneemt en gebruiksgemak wordt vergroot.
- Nazorg en ondersteuning: Creëer structuren voor voortdurende ondersteuning en evaluatie van AI-toepassingen, zodat aanpassingen snel en effectief kunnen worden doorgevoerd.
Vooraf: analyse
Het rapport adviseert om vooraf de impact op medewerkers en werkprocessen te analyseren en vervolgens een strategie te ontwikkelen die medewerkers ondersteunt en betrekt bij de implementatie van AI. Ook geeft het rapport advies over communicatie binnen de organisatie om draagvlak en vertrouwen te creëren rondom AI-initiatieven.
Voor customerservice- en contactcentermanagers biedt het rapport extra nuttige inzichten in het belang van organisatorische voorbereiding, inclusief het opleiden en trainen van medewerkers om de inzet van AI optimaal te benutten. Wie de stappen uit het Deense rapport volgt, maakt niet alleen optimaal gebruik van de mogelijkheden van AI, maar voldoet ook aan essentiële juridische en ethische kaders.
Download de leidraad (Engelstalig)
(Ziptone/redactie)