AI Risk

Red teaming

Red teaming maakt verborgen risico's zichtbaar voordat echte gebruikers ze vinden.

Red teaming is het bewust testen van een systeem vanuit een aanvallende of kritische rol om zwakke plekken, misbruikscenario's en ongewenst gedrag te vinden. Bij AI helpt dit om veiligheidsrisico's vroeg bloot te leggen.

Ook bekend als: tegenaanvalstest, adversarial testing