vision-language model (VLM)

vision-language model (VLM)

by Ziptone

Een Vision-Language Model (VLM) is een AI-model dat visuele en tekstuele informatie combineert voor taken waarbij herkenning van (bewegend) beeld een rol speelt.

VLM’s worden getraind om relaties te begrijpen tussen afbeeldingen en bijbehorende tekst. Hierdoor kunnen VLM’s bijvoorbeeld (bewegende) beelden beschrijven of hier vragen over beantwoorden. Dit kan binnen de context van klantcontact toegepast worden voor bijvoorbeeld de automatische herkenning van producten via een foto of video en het geven van oplossingen bij defecten of vragen.

 

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Top