Hallucinatie

Hallucinatie

by Ziptone

Hallucinatie kan verwijzen naar gedrag van chatbots of andere AI-gebaseerde toepassingen die werken op basis van LLM’s. Met hallucinerende chatbots wordt bedoeld dat de antwoorden niet aansluiten op de input, prompt of vraag of dat de gegeven antwoorde sterk afwijken van hetgeen in de trainingsdata is opgenomen. Strikt genomen is hallucinatie niet de juiste bewoording, omdat de output van een chatbot die op basis van een LLM werkt, op basis van waarschijnlijkheid tot stand komt. Het is dus niet zo dat een chatbot zelf foutieve antwoorden ‘verzint’; het is foutieve output die een statistische grondslag heeft. Experts waarschuwen voor deze vorm van antropomorfisme: hallucineren is een vorm van menselijk gedrag, namelijk een niet-zintuiglijke beleving die niet overeenkomt met de fysieke werkelijkheid.

 

Zie ook antropomorfisme, chatbot, LLM

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Top