Als HR-directeur beslis je dagelijks over de inzet van tools die CV's filteren, kandidaten scoren, prestaties monitoren of verzuim voorspellen. Wat veel HR-professionals nog niet weten: de EU AI Act classificeert de meeste van deze systemen als hoog-risico AI — met concrete verplichtingen die direct op jouw functie neerkomen.
Deadline nadert: vanaf 2 augustus 2026 geldt volledige handhaving. Voor hoog-risico AI in HR moet je organisatie dan aantoonbaar compliant zijn — of jij riskeert persoonlijk aangesproken te worden.
Welke HR-systemen zijn hoog-risico?
De EU AI Act (Bijlage III) noemt expliciet de volgende HR-toepassingen als hoog-risico:
| AI-toepassing | Voorbeelden |
|---|---|
| Werving en selectie | CV-screening, kandidaatrangschikking, chatbots die sollicitanten beoordelen |
| Beoordelingssystemen | Prestatiesoftware met AI-scoring, 360°-feedbacktools met geautomatiseerde conclusies |
| Promotie en ontslag | Succesvoorspellers voor intern talent, retentierisico-algoritmes |
| Taakverdeling en monitoring | Werkplanning via AI, productiviteitsmonitoring, keystroke analytics |
Let op: het gaat niet alleen om AI die je zelf hebt aangeschaft als "AI-systeem". Ook modules in bestaande HR-pakketten — zoals automatische CV-parsers in een ATS, of prestatiescorecards in een HRMS — kunnen onder deze definitie vallen.
Wat zijn de verplichtingen voor jouw organisatie?
1 — Risicobeheersysteem
Je moet voor elk hoog-risico AI-systeem een gedocumenteerd risicobeheersysteem bijhouden. Dit betekent niet een eenmalige inventarisatie, maar een levend document dat regelmatig wordt bijgewerkt en de mogelijke nadelige gevolgen voor kandidaten en medewerkers beschrijft.
2 — Menselijk toezicht
Er moet altijd een bevoegde menselijke medewerker zijn die AI-beslissingen begrijpt, kan overrulen en verantwoording kan afleggen. Een automatisch gegenereerde aanbeveling die zonder menselijke toetsing wordt doorgevoerd, is in strijd met de wet.
3 — Transparantie naar betrokkenen
Kandidaten en medewerkers moeten worden geïnformeerd wanneer AI een significante rol speelt in beslissingen over hen. Dit moet actief worden gecommuniceerd — het volstaat niet om het in de kleine lettertjes te zetten.
4 — Logging en documentatie
AI-beslissingen moeten worden gelogd zodat achteraf reconstructie mogelijk is. Toezichthouders kunnen om inzage vragen; je moet kunnen aantonen welk systeem, op welk moment, op basis van welke data tot welke uitkomst is gekomen.
Wat is jouw persoonlijke aansprakelijkheid?
Kernpunt: als HR-directeur ben je in de meeste organisaties de functioneel verantwoordelijke voor het inzetten en beheren van HR-technologie. De EU AI Act legt de nalevingsplicht bij de gebruiker van het systeem — dat is jouw organisatie, en concreet de persoon die het systeem aanschaft en inzet.
Dat brengt drie vormen van persoonlijk risico met zich mee:
- Arbeidsrechtelijke aansprakelijkheid: wanneer een sollicitant of medewerker kan aantonen dat een AI-beslissing discriminerend of onrechtmatig was, kan hij of zij jouw organisatie aanspreken — en intern wordt dat teruggeleid naar de verantwoordelijke functionaris.
- Bestuursrechtelijke handhaving: toezichthouders kunnen bij een inspectie of klacht de verantwoordelijke persoon horen. Een onvolledig dossier of ontbrekende documentatie weegt zwaar.
- Reputatierisico: publieke uitspraken van een toezichthouder over niet-compliant AI-gebruik in een HR-context kunnen carrière en werkgever schaden.
Wat kun je nú doen?
- Maak een AI-inventaris. Zet alle tools op een rij waarbij AI een rol speelt in beslissingen over mensen — inclusief modules in bestaande pakketten.
- Vraag je leveranciers om documentatie. Conformiteitsverklaringen, CE-markering en technische documentatie zijn verplicht voor hoog-risico AI. Heeft jouw leverancier die niet? Dan zit je zelf met een compliance-probleem.
- Stel een menselijk toezichtprotocol op. Wie in jouw team reviewt AI-aanbevelingen, en hoe wordt die review gedocumenteerd?
- Update je kandidaat- en medewerkercommunicatie. Vermeld actief wanneer AI wordt gebruikt in selectie- en beoordelingsprocessen.
- Doe de risicoscan. Weet binnen 9 minuten of jouw HR-toolset als hoog-risico wordt geclassificeerd.
Wat als je leverancier zegt dat het zijn verantwoordelijkheid is?
Leveranciers van hoog-risico AI moeten inderdaad voldoen aan uitgebreide verplichtingen (CE-markering, technische documentatie, registratie in de EU-database). Maar de gebruiker — jouw organisatie — heeft daarnaast een eigen, zelfstandige nalevingsplicht. Je kunt je niet volledig verschuilen achter je leverancier.
Als je leverancier geen conformiteitsverklaring kan overleggen, is dat op zichzelf al een signaal dat het systeem mogelijk niet voldoet aan de wet. In dat geval ben je als gebruiker medeverantwoordelijk voor het in gebruik nemen van een niet-gecertificeerd hoog-risico systeem.
Weet welke HR-tools jouw organisatie risico lopen
Doe de gratis scan en ontvang binnen 3 minuten een persoonlijk risicorapport op maat.
Start de gratis scan →