AI Risk

Hallucinatie

Hallucinaties tonen waarom controle, context en bronverwijzingen belangrijk zijn.

Een hallucinatie is een foutief of verzonnen antwoord van een AI-model dat wel geloofwaardig klinkt. Dit gebeurt wanneer het model patronen voorspelt zonder voldoende correcte context of broninformatie, wat risico's geeft in bijvoorbeeld advies, rapportering en compliance.

Ook bekend als: AI-hallucinatie, hallucination