Red teaming is een gestructureerde methode om de weerbaarheid van systemen, processen of organisaties te testen. Hierbij wordt een speciaal team (‘red team’) opgesteld dat zich richt op het gecontroleerd simuleren van aanvallen, fouten of misbruikscenario’s om zwakke plekken in AI-modellen, security-protocollen of besluitvormingsprocessen te ontdekken.
Terug naar startpagina woordenboek
