Op 1 augustus 2024 trad de Europese Verordening Artificiële Intelligentie — beter bekend als de EU AI Act — officieel in werking. Het is de eerste bindende AI-wet ter wereld, en ze geldt voor elke organisatie die AI-systemen ontwikkelt, implementeert of gebruikt binnen de Europese Unie.
Dat klinkt abstract. Maar als je vandaag ChatGPT gebruikt voor het screenen van sollicitanten, een algoritme hanteert voor het plannen van dienstroosters, of een AI-tool inzet voor het beoordelen van kredietaanvragen — dan val je al onder deze wet.
Kern van de wet: De EU AI Act verplicht organisaties om AI-systemen te classificeren op risico, passende beheersmaatregelen te treffen en menselijk toezicht te borgen. Bij niet-naleving gelden boetes tot €35 miljoen of 7% van de wereldwijde omzet.
Waarom bestaat de EU AI Act?
De Europese wetgever zag een toenemend gebruik van AI-systemen dat grondrechten bedreigt — discriminerende beslissingen, gebrek aan transparantie, algoritmische bias. De AI Act biedt een kader dat innovatie mogelijk maakt, maar misbruik voorkomt.
Het uitgangspunt is eenvoudig: hoe hoger het risico dat een AI-systeem heeft voor mensen, hoe strenger de eisen. Een AI die muziekaanbevelingen doet, valt nauwelijks onder de wet. Een AI die bepaalt wie een hypotheek krijgt of wie voor een baan wordt geselecteerd, valt onder de zwaarste categorie.
De vier risicocategorieën
| Categorie | Voorbeelden | Gevolg |
|---|---|---|
| Onaanvaardbaar | Sociale scoring, subliminale manipulatie, biometrische surveillance | Verboden per 2 februari 2025 |
| Hoog risico | AI in HR-selectie, kredietbeoordeling, medische diagnose | Zware verplichtingen: documentatie, audits, menselijk toezicht |
| Beperkt risico | Chatbots, deepfakes, AI-gegenereerde content | Transparantieplicht: gebruikers moeten weten dat ze met AI praten |
| Minimaal risico | Spamfilters, AI in games, streamingaanbevelingen | Geen specifieke verplichtingen |
Wat valt er precies onder de wet?
AI-systemen die je waarschijnlijk al gebruikt
- CV-screening tools die automatisch sollicitanten selecteren of rangschikken
- Personeelsplanning software met algoritmische besluitvorming
- Krediet- en fraudedetectiesystemen
- Klantgerichte chatbots die advies of aanbevelingen geven
- Prijsalgoritmen die automatisch prijzen bepalen
Praktijkvoorbeeld: Een HR-directeur gebruikt ChatGPT om sollicitatiebrieven samen te vatten en een shortlist te maken. De AI Act beschouwt dit als hoog-risico gebruik. Er is een menselijk toezichtprotocol vereist — de eindbeslissing moet altijd door een mens worden genomen.
De tijdlijn
| Datum | Wat treedt in werking |
|---|---|
| 2 februari 2025 | Verbod op onaanvaardbare AI-systemen |
| 2 augustus 2025 | Regels voor GPAI-modellen (ChatGPT, Copilot e.d.) |
| 2 augustus 2026 | Volledige handhaving — inclusief hoog-risico systemen |
Wat betekent dit praktisch?
Risicoanalyse en documentatie
Je moet inventariseren welke AI-systemen jouw organisatie gebruikt en deze classificeren. Die inventarisatie moet gedocumenteerd zijn en beschikbaar voor toezichthouders.
Menselijk toezicht (artikel 14)
Bij hoog-risico toepassingen moet je aantonen dat een mens verantwoordelijk is voor AI-beslissingen. Dit vereist een formeel protocol: wie controleert, hoe, en wanneer kan iemand de AI overrulen?
Transparantie
Wanneer AI-systemen contact hebben met mensen, moeten die mensen weten dat ze met AI te maken hebben. Bij hoog-risico systemen moeten medewerkers ook begrijpen hoe de AI werkt en wat de beperkingen zijn.
Weet je waar jouw bedrijf staat?
Beantwoord 9 vragen en ontvang direct een persoonlijk risicoprofiel — gratis, geen e-mail nodig.
Start de gratis scan →