HR

EU AI Act voor HR-directeuren: wat is jouw persoonlijke aansprakelijkheid?

De EU AI Act maakt HR-directeuren persoonlijk verantwoordelijk voor AI-systemen in werving, beoordeling en personeelsbeheer. Wat dat in de praktijk betekent — en hoe je jezelf beschermt.

Danny Verbeek — EU AI Act Specialist 17 maart 2026 8 min leestijd

Als HR-directeur beslis je dagelijks over de inzet van tools die CV's filteren, kandidaten scoren, prestaties monitoren of verzuim voorspellen. Wat veel HR-professionals nog niet weten: de EU AI Act classificeert de meeste van deze systemen als hoog-risico AI — met concrete verplichtingen die direct op jouw functie neerkomen.

Deadline nadert: vanaf 2 augustus 2026 geldt volledige handhaving. Voor hoog-risico AI in HR moet je organisatie dan aantoonbaar compliant zijn — of jij riskeert persoonlijk aangesproken te worden.

Welke HR-systemen zijn hoog-risico?

De EU AI Act (Bijlage III) noemt expliciet de volgende HR-toepassingen als hoog-risico:

AI-toepassingVoorbeelden
Werving en selectieCV-screening, kandidaatrangschikking, chatbots die sollicitanten beoordelen
BeoordelingssystemenPrestatiesoftware met AI-scoring, 360°-feedbacktools met geautomatiseerde conclusies
Promotie en ontslagSuccesvoorspellers voor intern talent, retentierisico-algoritmes
Taakverdeling en monitoringWerkplanning via AI, productiviteitsmonitoring, keystroke analytics

Let op: het gaat niet alleen om AI die je zelf hebt aangeschaft als "AI-systeem". Ook modules in bestaande HR-pakketten — zoals automatische CV-parsers in een ATS, of prestatiescorecards in een HRMS — kunnen onder deze definitie vallen.

Wat zijn de verplichtingen voor jouw organisatie?

1 — Risicobeheersysteem

Je moet voor elk hoog-risico AI-systeem een gedocumenteerd risicobeheersysteem bijhouden. Dit betekent niet een eenmalige inventarisatie, maar een levend document dat regelmatig wordt bijgewerkt en de mogelijke nadelige gevolgen voor kandidaten en medewerkers beschrijft.

2 — Menselijk toezicht

Er moet altijd een bevoegde menselijke medewerker zijn die AI-beslissingen begrijpt, kan overrulen en verantwoording kan afleggen. Een automatisch gegenereerde aanbeveling die zonder menselijke toetsing wordt doorgevoerd, is in strijd met de wet.

3 — Transparantie naar betrokkenen

Kandidaten en medewerkers moeten worden geïnformeerd wanneer AI een significante rol speelt in beslissingen over hen. Dit moet actief worden gecommuniceerd — het volstaat niet om het in de kleine lettertjes te zetten.

4 — Logging en documentatie

AI-beslissingen moeten worden gelogd zodat achteraf reconstructie mogelijk is. Toezichthouders kunnen om inzage vragen; je moet kunnen aantonen welk systeem, op welk moment, op basis van welke data tot welke uitkomst is gekomen.

Wat is jouw persoonlijke aansprakelijkheid?

Kernpunt: als HR-directeur ben je in de meeste organisaties de functioneel verantwoordelijke voor het inzetten en beheren van HR-technologie. De EU AI Act legt de nalevingsplicht bij de gebruiker van het systeem — dat is jouw organisatie, en concreet de persoon die het systeem aanschaft en inzet.

Dat brengt drie vormen van persoonlijk risico met zich mee:

Wat kun je nú doen?

Wat als je leverancier zegt dat het zijn verantwoordelijkheid is?

Leveranciers van hoog-risico AI moeten inderdaad voldoen aan uitgebreide verplichtingen (CE-markering, technische documentatie, registratie in de EU-database). Maar de gebruiker — jouw organisatie — heeft daarnaast een eigen, zelfstandige nalevingsplicht. Je kunt je niet volledig verschuilen achter je leverancier.

Als je leverancier geen conformiteitsverklaring kan overleggen, is dat op zichzelf al een signaal dat het systeem mogelijk niet voldoet aan de wet. In dat geval ben je als gebruiker medeverantwoordelijk voor het in gebruik nemen van een niet-gecertificeerd hoog-risico systeem.

Weet welke HR-tools jouw organisatie risico lopen

Doe de gratis scan en ontvang binnen 3 minuten een persoonlijk risicorapport op maat.

Start de gratis scan →