Blog

Wat is de AI Act en wat betekent dit voor Belgische bedrijven?

De AI Act zet de nieuwe standaard voor AI-regulering in Europa. Ontdek wat de regels concreet betekenen voor Belgische bedrijven en welke stappen je vandaag al kan zetten.

Gepubliceerd op

8 minuten leestijd

Kort samengevat

De AI Act (Verordening (EU) 2024/1689) zet de nieuwe standaard voor AI-regulering in Europa. Lees wat de regels concreet betekenen voor Belgische bedrijven en welke stappen organisaties vandaag al kunnen zetten voor compliant en verantwoord AI-gebruik.

Je gebruikt misschien al AI-tools voor klantenservice, recruitment of marketing? Dan heb je ongetwijfeld al gehoord van de AI Act, die op 2 augustus 2024 in werking is getreden en gefaseerd van toepassing wordt. Voor veel Belgische ondernemingen komt de echte impact dichterbij vanaf 2 augustus 2026, wanneer de verplichtingen voor hoog-risico AI-systemen beginnen te spelen.

Welke regels precies gelden, hangt af van het risico van het AI-systeem. Hoe groter de mogelijke impact op veiligheid, grondrechten of belangrijke beslissingen, hoe strenger de verplichtingen. Bij overtredingen kunnen de administratieve geldboeten oplopen tot €35 miljoen of 7% van de wereldwijde jaaromzet.

Voor Belgische ondernemingen is het daarom belangrijk om nu al te weten welke AI-systemen ze gebruiken, welke verplichtingen daarbij kunnen horen en waar vandaag al actie nodig is. Wie nu start met een AI-inventaris en een eerste risicobeoordeling, vermijdt verrassingen en bouwt aan een sterkere basis voor verantwoord AI-gebruik.

De AI Act in België: de essentie

De AI Act is een Europese verordening (Verordening (EU) 2024/1689) die één regelgevend kader schept voor artificiële intelligentie in de hele EU. De verordening is op 2 augustus 2024 in werking getreden en geldt rechtstreeks in alle lidstaten, dus ook in België (art. 288 VWEU). Omzetting in nationale wetgeving is dus niet vereist.

Volgens Eurostat-gegevens maakt 24,7% van de Belgische bedrijven gebruik van AI-technologieën (2024). Dat plaatst België in de Europese top 3, na Denemarken (27,6%) en Zweden (25,1%). De FOD Economie rapporteert zelfs dat 24,71% van de Belgische bedrijven in 2024 minstens één AI-technologie gebruikt, wat een stijging van meer dan 10 procentpunten ten opzichte van 2023 (13,8%) impliceert.

Het doel van de AI Act is drieledig: AI-systemen veilig en betrouwbaar maken, de grondrechten van burgers beschermen, en tegelijk innovatie stimuleren. De verordening legt verplichtingen op aan bedrijven die AI ontwikkelen (aanbieders), invoeren of verdelen (importeurs en distributeurs) en/of gebruiken (gebruiksverantwoordelijken).

Wat maakt de AI Act uniek? De verordening werkt met een risicogebaseerde aanpak. Niet alle AI valt onder dezelfde regels. Een spamfilter krijgt minder verplichtingen dan een AI-systeem dat sollicitanten automatisch filtert. De strengheid van de regels hangt af van het risico dat een AI-systeem vormt voor de gezondheid, veiligheid en grondrechten van personen.

Wat betekent de AI Act voor jouw onderneming?

Als Belgische ondernemer moet je weten waar je staat. Volgens Eurostat maakt 24,7% van de Belgische bedrijven gebruik van AI-technologieën (2024), goed voor een plaats in de Europese top 3. De FOD Economie rapporteert zelfs dat dit aandeel op één jaar tijd met meer dan 10 procentpunten is gestegen. De kans is dus groot dat ook jouw organisatie vandaag al onder de scope van de AI Act valt, maar de impact verschilt sterk per situatie en rol binnen de AI-keten.

Alle bedrijven moeten rekening houden met de verbodsbepalingen en met de verplichting om een passend niveau van AI-geletterdheid te waarborgen bij medewerkers die met AI-systemen werken. Dit betekent dat personeel voldoende kennis moet hebben om AI op een verantwoorde manier te gebruiken. Artikel 4 AI Act verplicht organisaties om hiervoor passende maatregelen te nemen, rekening houdend met de context en het type AI-systemen.

Gebruik je een chatbot op je website? Dan kunnen vanaf 2 augustus 2025 transparantieverplichtingen gelden. In bepaalde gevallen moeten gebruikers weten dat ze met een AI-systeem communiceren (art. 50 AI Act), tenzij dat evident is uit de context.

Werk je met AI-systemen die mogelijk onder de categorie hoog risico? Dan gelden uitgebreide verplichtingen, waaronder risicobeheersing, data governance, documentatie, logging en menselijk toezicht. Vanaf 2 augustus 2026 zal je moeten kunnen aantonen dat je aan deze eisen voldoet.

De Belgische toezichtstructuur voor de AI Act is nog in verdere uitwerking. Wel staat vast dat de FOD Economie de algemene coördinatie van de implementatie van de AI Act in België op zich neemt. De Gegevensbeschermingsautoriteit (GBA) zal vooral een rol spelen wanneer AI-systemen persoonsgegevens verwerken en dus ook de AVG (Algemene Verordening Gegevensbescherming) van toepassing is.

Hoe werkt de AI Act?

De AI Act kent vier risiconiveaus voor AI-systemen. Elk niveau heeft eigen verplichtingen. Het overzicht is als volgt:

1. Onaanvaardbaar risico (verboden)

Deze AI-praktijken zijn verboden. Het gaat om systemen die een onaanvaardbaar risico vormen voor grondrechten of die personen manipuleren of uitbuiten op een manier die schadelijke gevolgen kan hebben. Denk aan sociale scoring door overheden, bepaalde vormen van realtime biometrische identificatie in openbare ruimtes (behoudens uitzonderingen), of AI die personen beïnvloedt op een manier die tot schade kan leiden. Deze verboden zijn al van toepassing sinds 2 februari 2025.

2. Hoog risico

dit zijn AI-systemen die een aanzienlijk risico kunnen inhouden voor de gezondheid, veiligheid of grondrechten van personen. Het gaat onder meer om bepaalde systemen die worden gebruikt in domeinen zoals kritieke infrastructuur, onderwijs, werkgelegenheid, kredietbeoordeling, rechtspraak en wetshandhaving. Denk bijvoorbeeld aan een AI-tool die kandidaten screent of rangschikt in een aanwervingsprocedure. Voor deze systemen gelden strikte verplichtingen inzake onder meer risicobeheer, data governance, technische documentatie, logging, transparantie en menselijk toezicht. De meeste van deze verplichtingen zullen zijn van toepassing worden vanaf 2 augustus 2026.

“Datapunt: Uit onderzoek van appliedAI bleek dat 18% van de enterprise AI-systemen onder de hoog-risico-categorie valt. 42% wordt als laag risico geclassificeerd, terwijl 40% onduidelijk blijft zonder verdere analyse.”

3. Beperkt risico (transparantieverplichtingen)

hieronder vallen AI-systemen waarbij personen moeten weten dat zij met AI communiceren of dat zij met AI-gegenereerde inhoud te maken hebben. Denk aan chatbots en bepaalde deepfake-toepassingen. In zulke gevallen moet duidelijk worden meegedeeld dat sprake is van een AI-systeem of van AI-gegenereerde of gemanipuleerde inhoud. Deze verplichtingen zijn al van toepassing sinds 2 augustus 2025.

4. Minimaal risico

de meest gebruikelijke AI-toepassingen vallen hieronder, zoals spamfilters of aanbevelingssystemen. Voor deze systemen gelden in principe geen specifieke bindende verplichtingen onder de AI Act, al moedigt de verordening het gebruik van vrijwillige gedragscodes aan.

Daarnaast zijn er specifieke regels voor General Purpose AI-modellen (GPAI) zoals GPT-4 of Claude. Deze modellen kunnen voor meerdere taken worden gebruikt en vallen onder verplichtingen rond transparantie, data en veiligheid vanaf augustus 2025.

Voorbeelden van AI-systemen in de praktijk

Hoe ziet dit eruit voor een typische Vlaamse onderneming? Enkele concrete voorbeelden:

Een softwarebedrijf met een recruitmenttool: Je gebruikt een AI-systeem dat automatisch CV's analyseert en sollicitanten rangschikt. Dit soort toepassing valt doorgaans onder de categorie van hoog-risico AI-systemen, omdat het invloed heeft op toegang tot werk. Je moet dan een risicobeheerssysteem opzetten, documentatie bijhouden en zorgen voor menselijk toezicht bij beslissingen. Ook moet je kandidaten informeren over het gebruik van AI.

Een webshop met een chatbot: Je klantenservice draait gedeeltelijk op een AI-chatbot die vragen beantwoordt over bestellingen en retouren. Dit valt doorgaans onder beperkt risico, waarvoor transparantieverplichtingen gelden. Je moet klanten duidelijk informeren dat zij met een AI-systeem communiceren, bijvoorbeeld via een melding in het chatvenster.

Een marketingbureau met generatieve AI: Je team gebruikt tools zoals ChatGPT om teksten of visuals te maken. Als gebruiker van een GPAI-model moet je nagaan of het model voldoet aan de EU-verplichtingen. Gebruik je een Europees alternatief zoals ThinkTank, dan blijft je data binnen de EU en voldoe je automatisch beter aan de AI Act en AVG.

Een productiebedrijf met voorspellend onderhoud: Je machines gebruiken AI om onderhoud te voorspellen. Dit valt doorgaans onder minimaal risico, tenzij het falen van het systeem gevolgen kan hebben voor veiligheid of kritieke processen.

Waar moet je op letten?

Zoals hierboven al gegeven treedt de AI Act gefaseerd in werking. Volgende deadlines zijn hierbij van belang:

Deadline Wat wordt van toepassing?
Februari 2025 AI mag niet worden ingezet voor verboden AI-praktijken
2 augustus 2025 Verplichting tot naleving van GPAI-verplichtingen en transparantieregels rond AI
2 augustus 2026 Verplichting tot naleving van hoog-risico verplichtingen
2 augustus 2027 GPAI-modellen die al op de markt waren, moeten aan de nieuwe regels worden aangepast

De boetes bij overtreding zijn aanzienlijk. Voor bepaalde inbreuken riskeer je tot €35 miljoen of 7% van de wereldwijde jaaromzet (art. 99 AI Act). Voor andere inbreuken gelden lagere plafonds, bijvoorbeeld tot €15 miljoen of 3%.

“Datapunt: Uit KVK-onderzoek (Nederland, oktober 2025) blijkt dat 44% van de middelgrote mkb-bedrijven impact verwacht van de AI Act, terwijl slechts een beperkt deel al concrete maatregelen heeft genomen.”

Wat zijn de volgende acties die je best kan nemen?

  • Documenteer je AI-gebruik: Maak een inventarisatie van alle AI-systemen in je zaak en bepaal het risiconiveau.
  • Check je leveranciers: Als je AI-software van derden gebruikt, vraag dan bewijs van compliance.
  • Train je medewerkers: Zorg dat medewerkers die met AI werken begrijpen wat de regels zijn en waarom die ertoe doen.
  • Combineer AI Act met AVG: Veel AI-systemen verwerken persoonsgegevens. De GBA publiceerde een handige brochure om een correcte naleving te vergemakkelijken.

Conclusie

De AI Act verandert hoe Belgische bedrijven met artificiële intelligentie omgaan. De risicogebaseerde aanpak betekent dat niet elke AI-toepassing zwaar gereguleerd wordt, maar wél dat je moet weten waar je systeem juridisch onder valt.

Voor de meeste kmo’s zijn transparantieverplichtingen en AI-geletterdheid het eerste aandachtspunt, gevolgd door een correcte inschatting van mogelijke hoog-risico toepassingen. Veel ondernemingen zijn vandaag echter nog niet volledig afgestemd zijn op de regels die intussen al van toepassing zijn. Rechtzetting en bijsturing zijn in veel gevallen dus geen oefening voor later, maar een actuele noodzaak.

Net daarom is wachten geen goed idee. De volgende mijlpalen komen snel dichterbij, met augustus 2026 als belangrijkste deadline voor hoog-risico systemen. Wie nu start met inventarisatie, risicobeoordeling en planning, vermijdt juridische en operationele verrassingen en bouwt stap voor stap aan een duurzame compliance-aanpak. Zo wordt compliance geen eenmalige oefening, maar een structureel onderdeel van verantwoord AI-gebruik.

Veelgestelde vragen

Geldt de AI Act ook voor kleine bedrijven? +

Ja. De AI Act maakt geen onderscheid naar bedrijfsgrootte. Een KMO die een hoog-risico AI-systeem gebruikt, heeft dezelfde verplichtingen als een multinational. Wel houdt de wet rekening met specifieke behoeften van kmo's en start-ups bij de uitvoering. De FOD Economie biedt daarvoor specifieke begeleiding.

Moet ik stoppen met ChatGPT gebruiken? +

De AI Act verbiedt het gebruik van generatieve AI niet. Als gebruiker van een GPAI-model moet je wel nagaan of je voldoet aan de transparantieregels en of het model zelf compliant is. Let daarbij zeker goed op waar je data terechtkomt: Amerikaanse tools bijvoorbeeld slaan gegevens vaak op buiten de EU, wat extra AVG-risico's met zich meebrengt.

Wie controleert of ik me aan de regels houd? +

De toezichtstructuur voor de AI Act in België is nog in ontwikkeling. Naar verwachting zullen meerdere autoriteiten betrokken zijn, waaronder de FOD Economie voor markttoezicht en de Gegevensbeschermingsautoriteit (GBA) wanneer persoonsgegevens worden verwerkt. Op Europees niveau houdt de Europese Commissie, via het AI Office, toezicht op bepaalde general-purpose AI-modellen. Bij overtredingen kunnen sancties volgen, zoals boetes of maatregelen om systemen van de markt te halen.

Wat is het verschil tussen aanbieder en gebruiker? +

Een aanbieder ontwikkelt of laat ontwikkelen een AI-systeem en brengt het op de markt. Een gebruiksverantwoordelijke zet een AI-systeem in voor eigen doeleinden. De meeste Vlaamse bedrijven zijn gebruikers, niet aanbieders. Je verplichtingen als gebruiker zijn weliswaar lichter, maar je moet wel zeker zijn dat het systeem dat je gebruikt compliant is dit zelf ook op een correcte manier gebruiken.

Hoe start ik met AI Act-compliance? +

Begin met een inventarisatie van je AI-systemen en bepaal per toepassing het risiconiveau. Dat vormt de basis voor verdere compliance-stappen. Werk je met een centraal AI-platform zoals ThinkTank, dan wordt die oefening al een stuk eenvoudiger: je hebt meteen zicht op de tools die binnen de organisatie worden gebruikt, voor welke doeleinden, en waar bijkomende juridische of operationele waarborgen nodig zijn. Omdat ThinkTank inzet op Europese hosting en gegevensverwerking binnen de EU, kan het ook helpen om risico’s rond gegevensbescherming en internationale doorgiften beter te beheersen.

Bij vragen over de technische uitrol of de juridische kant van AI kan je terecht bij ThinkTank. We ondersteunen organisaties met praktische begeleiding rond AI-governance, compliance en implementatie. Daarnaast bieden we ook AI-trainingen op maat aan, zodat je medewerkers verantwoord met AI leren werken en je organisatie stappen kan zetten richting compliant AI-gebruik en naleving van de vereiste rond AI-geletterdheid.

Lees meer