“Nederland zou een eigen ‘large language model’ moeten hebben”

by Ziptone

“Nederland zou een eigen ‘large language model’ moeten hebben”

by Ziptone

by Ziptone

“Het is mooi als iets goed werkt, maar het wordt lastig als niemand een kijkje achter de schermen mag nemen,” aldus Saskia Lensink van TNO. Ziptone sprak met haar over de businesswaarde van opkomende technologie zoals ChatGPT. Deel 2 in een serie over de betekenis van AI voor klantcontact.


Saskia LensinkNederland is een beperkt taalgebied. Dat maakt van ons land niet meteen een focusmarkt voor big tech als het gaat om taaltechnologie. Toch zijn er veel diensten weg te zetten in onze rijke economie, stelt Saskia Lensink, data scientist bij TNO. “De uitdagingen om technologie hier succesvol te laten landen zitten hem in inclusiviteit en transparantie: het is mooi als iets goed werkt, maar het wordt lastig als niemand een kijkje achter de schermen mag nemen.”

Wetenschap, bedrijfsleven en maatschappij

Lensink is van oorsprong taalwetenschapper en is gepromoveerd op het gebied van cognitieve processen bij taalverwerking. Ze is bij TNO terechtgekomen omdat het snijvlak van onderzoek en praktijk haar aanspreekt en “er bijzonder veel gebeurt op het vlak van hoogwaardige taal- en spraaktechnologie”. TNO heeft als onafhankelijke onderzoeksorganisatie de rol om gericht innovatie te stimuleren op die plekken waar de wisselwerking tussen wetenschap, bedrijfsleven en maatschappij nog een extra zetje kan gebruiken. Lensink: “We zijn ‘pre-competitief’, onze rol stopt als er een marktoplossing is ontstaan. Vandaar ook onze betrokkenheid bij het marktonderzoek van de Nationale Voice Monitor: voeling houden met hoe consumenten en bedrijven omgaan met technologie binnen klantcontact. Waar maken burgers of klanten zich druk om? Wat werkt wel en wat werkt niet?”

Wat wil je met LLM’s doen?

“Ik ben erg onder de indruk van de mogelijkheden van deze technologie. Een paar jaar geleden had vrijwel niemand kunnen voorzien dat de kwaliteit van dit soort grote taalmodellen zo hoog zou zijn. Het model van ChatGPT is getraind op een bepaalde set van data en blijkt in staat om andere soorten taken uit te voeren zonder dat dit expliciet is getraind. Nou bestaan generatieve modellen al langer, maar in dit geval is vooral de schaalgrootte opvallend. Tegelijkertijd is generatieve AI zoals ChatGPT op dit moment natuurlijk een hype. Je kunt veel met LLM’s doen, maar je moet wel weten wat je ermee kan en wil bereiken.”

Nepnieuws versus personeelstekort

Lensink ziet ook de keerzijde: problemen en risico’s op het vlak van privacy, security, auteursrecht en desinformatie, ook bij modellen zoals VALL-E en HALL-E. Voor het verspreiden van desinformatie “hoef je geen PhD in computerscience te hebben,” aldus Lensink. “Aan de andere kant hebben we te maken met een enorm personeelstekort.” Ze maakt zich dan ook geen zorgen over de negatieve impact van AI op de werkgelegenheid. “Als je terugkijkt naar tachtig jaar geleden, dan bestaat de meerderheid van de toenmalige banen niet meer. Ook internet heeft een enorme disruptieve werking gehad. Tegelijkertijd moeten nog steeds straten worden schoongemaakt, mensen moeten verzorgd worden, kinderen moeten onderwijs krijgen. Wat de betekenis en impact zijn van generatieve AI, dat zal de tijd moeten leren.”

Taalmodellen versus expertsystemen

“Dit is niet de eerste automatiseringsgolf waar we mee te maken hebben. Bij iedere golf zijn twee bewegingen zichtbaar: aan de ene kant een plotselinge toename in de mogelijkheden, zoals meer en krachtiger capaciteit; en aan de andere kant juist relativerende krachten. AI-modellen werken noot helemaal feilloos – de inzet van chatbots in klantcontact laat dat goed zien – en daardoor neemt de aandacht voor de kennis-gebaseerde benadering van AI én voor een soort van vangrails om de technologie in goede banen te leiden, momenteel weer toe. Expertsystemen en taalmodellen wisselen elkaar dus steeds een beetje af.”

Lensink verwacht dat juist de combinatie – taalmodellen én expertsystemen (ofwel omgevingen met gestructureerde informatie) – de toekomst is in AI, want het is duidelijk dat de brute rekenkracht van alleen LLM’s niet toereikend is. Daarnaast verwacht ze dat dit soort oplossingen binnen de Europese grenzen ‘as-a-service’ zullen worden aangeboden – relevant voor de klantcontactsector waar je al snel met regelgeving rondom persoonsgegevens te maken hebt. “Europese tegenhangers van modellen als chatGPT kunnen een grote rol gaan spelen, omdat we in Europa te maken hebben met vraagstukken rondom diversiteit, inclusiviteit, het grote palet aan verschillende talen gesproken in de verschillende lidstaten, en Europese wet- en regelgeving zoals de Europese AI Act.”

Uitlegbaarheid

Een ander punt is dat de op handen zijnde Europese AI-wetgeving eisen gaat stellen aan de uitlegbaarheid van AI. “Waarom wordt jou bijvoorbeeld een lening ontzegd? Of waarom loopt een bepaalde service misschien voor jou minder goed? Aanbieders zullen op dit punt niet altijd hun bedrijfsgeheimen prijsgeven – nog afgezien van het feit dat ontwikkelaars zoals OpenAI zelf ook niet volledig begrijpen hoe hun oplossingen tot bepaalde beslissingen komen.”

Niet alleen de manier waarop beslissingen tot stand komen, kan tot uitsluiting leiden. “Het gaat heel goed met spraaktechnologie als je ‘standaard Nederlands’ spreekt. Er komen steeds meer krachtige spraakmodellen: denk aan Whisper en recent heeft ook Meta een nieuw groot spraakmodel aangekondigd, genaamd Massively Multilingual Speech, kortweg MMS. Maar niet iedere organisatie heeft een grote klantengroep uit Limburg of een klantengroep die stottert, om modellen mee te trainen, terwijl je toch wil dat taalmodellen ook voor deze groepen werken.”

Privacy enhancing technologies

Op dat laatste vlak, zo legt Lensink uit, kunnen we nog het nodige verwachten van ‘privacy enhancing technologies’. Deze maken het mogelijk om AI-modellen op data van verschillende organisaties te trainen, zonder dat deze data de individuele organisaties verlaat – er worden lokale modellen bij de organisaties getraind, en die losse modellen worden vervolgens op een centrale plek samengevoegd. Op deze manier kunnen organisaties van elkaars data profiteren. “Voorbeelden hiervan zijn werkwijzen als federated learning en multi-party computation, met name interessant voor bedrijven die zelf niet zoveel data hebben,” aldus Lensink.

“Het optuigen van een Nederlands LLM zou niet onlogisch zijn.”

“Kortom, er zijn best wat argumenten om een eigen platform te ontwikkelen of ervoor te zorgen dat we zelf deze modellen verder kunnen finetunen. Daarom zou bijvoorbeeld het optuigen van een Nederlands LLM niet onlogisch zijn. Daar versterken we ook de innovatiekracht van Nederland mee. Ook als het gaat om de aantrekkelijkheid van Nederland als plek voor talent in de AI-sector.”

AI als assistent

Daarnaast ziet Lensink kansen op het vlak van een soepeler data-uitwisseling tussen allerlei partijen, om meer complexe administratieve processen in goede banen te leiden. Denk aan het afwikkelen van complexe verzekeringskwesties of overlijdensgevallen. “Je kunt generatieve AI aan het werk zetten om zaken te regelen en namens jou handelingen te mogen verrichten, waarbij de oplossing kan putten uit jouw databases en informatie kan doorzetten naar de juiste instanties. Zoiets was natuurlijk ooit de bedoeling van oplossingen zoals Siri – in plaats van vragen naar wat het weer van vandaag is.”

AI is feilbaar, net als alle andere techniek

Op een vergelijkbare manier zouden AI-oplossingen ook customerservice-taken kunnen oppakken: in de data duiken, gegevens combineren, en het resultaat – een oplossing of een advies – voorleggen aan een medewerker die het beoordeelt. “Dit soort oplossingen is nu al of op zeer korte termijn mogelijk met technologie,” is de overtuiging van Lensink. “Een belangrijke uitdaging is de menskant: het betekent een andere manier van werken. Beter samenwerken, meer op basis van vertrouwen in elkaar en in AI. Dit komt neer op een omwenteling en dus op change management.”

“Van AI verwachten we dat het feilloos werkt, anders vinden we het niet goed genoeg.”

“We zullen anders moeten leren kijken naar AI en er bijvoorbeeld ook aan moeten wennen dat we met het gebruik van krachtige AI een deel van onze controle inleveren en daar dus ofwel genoegen mee moeten nemen, ofwel onze processen op moeten aanpassen zodat een mens altijd de laatste checks uitvoert. Als mensen fouten maken, vinden we dat vervelend maar begrijpelijk. We snappen ook dat apparaten kapotgaan. Maar van AI verwachten we dat het feilloos werkt, anders vinden we het niet goed genoeg. We zullen echter moeten accepteren dat ook AI-toepassingen beperkingen hebben en dat die beperkingen AI niet meteen goed of slecht maken.” (Ziptone/Erik Bouwer)

Lees ook: LLM + knowledge graph = veelbelovend

Ook interessant

Featured, Technologie
Top