Compliance

Wat is een menselijk toezichtprotocol en hoe stel je er één op?

De EU AI Act verplicht organisaties die hoog-risico AI gebruiken om menselijk toezicht te garanderen. Maar wat betekent dat precies, en hoe ziet zo'n protocol er in de praktijk uit?

Danny Verbeek — EU AI Act Specialist 17 maart 2026 7 min leestijd

Artikel 14 van de EU AI Act stelt dat hoog-risico AI-systemen altijd onder effectief menselijk toezicht moeten staan. De wet is opzettelijk technologieneutraal — ze schrijft niet voor hoe je dat toezicht organiseert, maar stelt wel duidelijke eisen aan het resultaat: een mens moet de AI kunnen begrijpen, monitoren en zo nodig overschrijven.

Kerneis uit artikel 14: de mens die toezicht houdt, moet het vermogen hebben om de werking van het systeem te begrijpen, afwijkingen te herkennen, en te interveniëren. Passief "op de knop drukken" telt niet.

Wat is een menselijk toezichtprotocol?

Een menselijk toezichtprotocol is een gedocumenteerde procedure die vastlegt:

Het protocol is dus niet alleen een procesbeschrijving — het is ook het bewijs dat jouw organisatie actief en aantoonbaar toezicht houdt. Toezichthouders kunnen bij een inspectie om dit document vragen.

Wat valt er NIET onder menselijk toezicht?

Veelgemaakte fout: een medewerker die een AI-aanbeveling opent, leest en vervolgens automatisch accordeert, houdt géén toezicht. Toezicht vereist een actieve beoordeling — de toezichthouder moet de mogelijkheid en competentie hebben om te oordelen of de AI-uitkomst correct is.

Ook het volgende volstaat niet:

Hoe stel je een protocol op? — stap voor stap

  1. 1
    Identificeer het AI-systeem en de beslissing
    Beschrijf wat het systeem doet, welke output het genereert en welke beslissing op basis van die output wordt genomen. Wees specifiek: "het ATS rankt kandidaten op basis van zes criteria en presenteert een shortlist van vijf".
  2. 2
    Wijs een toezichthouder aan
    Benoem een specifieke functie (niet een afdeling). Beschrijf welke competenties vereist zijn: begrijpt deze persoon hoe het model werkt, welke beperkingen het heeft en hoe fouten eruit zien?
  3. 3
    Definieer de beoordelingscriteria
    Wat controleert de toezichthouder? Zijn er drempelwaarden (bijv. een score onder X vereist altijd extra review)? Welke signalen wijzen op mogelijke bias of technische storing?
  4. 4
    Beschrijf de escalatieprocedure
    Wat doet de toezichthouder als hij of zij het niet eens is met de AI-uitkomst? Wie wordt geïnformeerd? Hoe wordt de afwijking gedocumenteerd?
  5. 5
    Leg de logging-verplichting vast
    Hoe wordt het toezicht geregistreerd? In welk systeem? Hoe lang worden logs bewaard? Wie heeft toegang voor een eventuele audit?
  6. 6
    Periodieke evaluatie
    Hoe vaak wordt het protocol geëvalueerd? Wanneer is revisie vereist (bij een nieuwe modelversie, bij een calamiteit, bij gewijzigde wetgeving)?

Voorbeeld: menselijk toezichtprotocol voor CV-screening

Protocol: AI-ondersteunde CV-screening

AI-systeem
ATS [naam systeem] — module automatische kandidaatrangschikking op basis van vacaturematch-score (0–100)
Toezichthouder
Senior Recruiter (functieniveau: minimaal 2 jaar ervaring in werving en selectie). Training vereist: introductiecursus AI Act hoog-risico systemen (intern, ½ dag).
Beoordelingsmoment
Na elke automatische selectieronde, vóór het versturen van uitnodigingen of afwijzingen.
Beoordelingscriteria
1) Zijn de top-5 kandidaten inhoudelijk passend? 2) Zijn kandidaten met score <60 terecht afgewezen? 3) Zijn er opmerkelijke patronen (bijv. overrepresentatie of onderrepresentatie van bepaalde groepen)?
Escalatie
Bij twijfel: overleg met HR-manager. Bij vermoeden van bias: melden aan compliance officer en pauzeren van het proces tot nadere analyse.
Logging
Toezichthouder noteert naam, datum, selectieronde en bevindingen in het [intern registratiesysteem]. Bewaarperiode: 3 jaar.
Evaluatiecyclus
Elk kwartaal, en direct bij release van een nieuwe modelversie door de leverancier.

Veelgestelde vragen

Moet er voor elk AI-systeem een apart protocol zijn?

Ja. Een generiek toezichtsbeleid is een goed startpunt, maar per hoog-risico AI-systeem moet er een specifiek protocol zijn dat de concrete toepassing, toezichthouder en werkwijze beschrijft.

Moet de toezichthouder altijd een senior medewerker zijn?

Niet per se qua functietitel, maar wel qua competentie. De AI Act eist dat de toezichthouder het systeem begrijpt en in staat is om bij te sturen. Dat stelt eisen aan training en ervaring.

Is een protocol ook nodig voor AI die we van een externe partij gebruiken?

Ja. Als jij als organisatie het AI-systeem inzet (deployer), ben jij verantwoordelijk voor het menselijk toezicht — ook als het systeem door een derde partij is gebouwd.

Weet welke AI-systemen in jouw organisatie een protocol nodig hebben

Doe de gratis scan en ontvang een persoonlijk risicorapport — inclusief inzicht in welke systemen als hoog-risico worden geclassificeerd.

Start de gratis scan →