Hallucinaties tonen waarom controle, context en bronverwijzingen belangrijk zijn.
AI Risk
Hallucinatie
Een hallucinatie is een foutief of verzonnen antwoord van een AI-model dat wel geloofwaardig klinkt. Dit gebeurt wanneer het model patronen voorspelt zonder voldoende correcte context of broninformatie, wat risico's geeft in bijvoorbeeld advies, rapportering en compliance.
Ook bekend als:
AI-hallucinatie,
hallucination