Uitleg

Wat is de EU AI Act?

De eerste AI-wet ter wereld geldt ook voor jouw bedrijf. Dit is wat iedere Nederlandse ondernemer moet weten — ruim voor 2 augustus 2026.

Danny Verbeek — EU AI Act Specialist 17 maart 2026 8 min leestijd

Op 1 augustus 2024 trad de Europese Verordening Artificiële Intelligentie — beter bekend als de EU AI Act — officieel in werking. Het is de eerste bindende AI-wet ter wereld, en ze geldt voor elke organisatie die AI-systemen ontwikkelt, implementeert of gebruikt binnen de Europese Unie.

Dat klinkt abstract. Maar als je vandaag ChatGPT gebruikt voor het screenen van sollicitanten, een algoritme hanteert voor het plannen van dienstroosters, of een AI-tool inzet voor het beoordelen van kredietaanvragen — dan val je al onder deze wet.

Kern van de wet: De EU AI Act verplicht organisaties om AI-systemen te classificeren op risico, passende beheersmaatregelen te treffen en menselijk toezicht te borgen. Bij niet-naleving gelden boetes tot €35 miljoen of 7% van de wereldwijde omzet.

Waarom bestaat de EU AI Act?

De Europese wetgever zag een toenemend gebruik van AI-systemen dat grondrechten bedreigt — discriminerende beslissingen, gebrek aan transparantie, algoritmische bias. De AI Act biedt een kader dat innovatie mogelijk maakt, maar misbruik voorkomt.

Het uitgangspunt is eenvoudig: hoe hoger het risico dat een AI-systeem heeft voor mensen, hoe strenger de eisen. Een AI die muziekaanbevelingen doet, valt nauwelijks onder de wet. Een AI die bepaalt wie een hypotheek krijgt of wie voor een baan wordt geselecteerd, valt onder de zwaarste categorie.

De vier risicocategorieën

CategorieVoorbeeldenGevolg
OnaanvaardbaarSociale scoring, subliminale manipulatie, biometrische surveillanceVerboden per 2 februari 2025
Hoog risicoAI in HR-selectie, kredietbeoordeling, medische diagnoseZware verplichtingen: documentatie, audits, menselijk toezicht
Beperkt risicoChatbots, deepfakes, AI-gegenereerde contentTransparantieplicht: gebruikers moeten weten dat ze met AI praten
Minimaal risicoSpamfilters, AI in games, streamingaanbevelingenGeen specifieke verplichtingen

Wat valt er precies onder de wet?

AI-systemen die je waarschijnlijk al gebruikt

Praktijkvoorbeeld: Een HR-directeur gebruikt ChatGPT om sollicitatiebrieven samen te vatten en een shortlist te maken. De AI Act beschouwt dit als hoog-risico gebruik. Er is een menselijk toezichtprotocol vereist — de eindbeslissing moet altijd door een mens worden genomen.

De tijdlijn

DatumWat treedt in werking
2 februari 2025Verbod op onaanvaardbare AI-systemen
2 augustus 2025Regels voor GPAI-modellen (ChatGPT, Copilot e.d.)
2 augustus 2026Volledige handhaving — inclusief hoog-risico systemen

Wat betekent dit praktisch?

Risicoanalyse en documentatie

Je moet inventariseren welke AI-systemen jouw organisatie gebruikt en deze classificeren. Die inventarisatie moet gedocumenteerd zijn en beschikbaar voor toezichthouders.

Menselijk toezicht (artikel 14)

Bij hoog-risico toepassingen moet je aantonen dat een mens verantwoordelijk is voor AI-beslissingen. Dit vereist een formeel protocol: wie controleert, hoe, en wanneer kan iemand de AI overrulen?

Transparantie

Wanneer AI-systemen contact hebben met mensen, moeten die mensen weten dat ze met AI te maken hebben. Bij hoog-risico systemen moeten medewerkers ook begrijpen hoe de AI werkt en wat de beperkingen zijn.

Weet je waar jouw bedrijf staat?

Beantwoord 9 vragen en ontvang direct een persoonlijk risicoprofiel — gratis, geen e-mail nodig.

Start de gratis scan →