Uitzendbureaus en staffingbedrijven bevinden zich in een bijzondere positie onder de EU AI Act. Enerzijds zijn ze gebruiker van AI die ze van softwareleveranciers afnemen — denk aan een ATS met geautomatiseerde shortlisting. Anderzijds bieden sommige bureaus zelf geautomatiseerde matchingdiensten aan opdrachtgevers, waardoor ze ook als aanbieder worden gezien.
Dubbele rol: als jouw bureau een eigen matchingplatform of kandidaatscoremodel heeft dat je aan klanten levert, gelden de zwaarste verplichtingen van de EU AI Act — inclusief CE-markering, technische documentatie en registratie in de EU-database.
Welke AI-systemen zijn hoog-risico voor de staffingsector?
| AI-toepassing | Typisch gebruik in staffing |
|---|---|
| CV-screening en -rangschikking | Automatisch filteren van kandidaten op basis van profiel en vacaturetekst |
| Kandidaat-matching | Algoritmes die kandidaten aan opdrachten koppelen op basis van vaardigheden, beschikbaarheid en historische data |
| Betrouwbaarheids- of geschiktheidsscore | Reputatiescores op basis van eerdere opdrachten, reviews, no-show-historie |
| Beschikbaarheids- en planningsmodellen | AI-gestuurde roostergeneratie waarbij kandidaten automatisch worden ingepland |
| Screeningsgesprekken via AI | Chatbots of video-analyse die sollicitanten beoordelen vóór menselijke review |
Aanbieder of gebruiker: wat ben jij?
De AI Act maakt een belangrijk onderscheid:
- Je hebt een eigen matching- of scoringmodel ontwikkeld
- Je levert het als dienst aan opdrachtgevers of andere bureaus
- Verplichtingen: CE-markering, conformiteitsverklaring, EU-database registratie, technische documentatie
- Je gebruikt AI van een leverancier (ATS, matchingsoftware)
- Je past het toe in je eigen wervings- en plaatsingsproces
- Verplichtingen: menselijk toezicht, transparantie naar kandidaten, logging, risicobeheersysteem
Wat verandert er concreet voor jouw bureau?
Transparantie naar kandidaten
Kandidaten moeten worden geïnformeerd wanneer AI een rol speelt in hun beoordeling of plaatsing. Dat betekent: in je kandidaatcommunicatie, je privacyverklaring én je intakeprocedure moet helder staan dat geautomatiseerde beslissingsondersteuning wordt ingezet.
Menselijk toezicht verplicht
Een consultant die een AI-aanbeveling "gewoon overneemt" zonder werkelijke toetsing voldoet niet. Er moet een aantoonbare menselijke beoordeling zijn — en die moet worden gedocumenteerd. Wie heeft de aanbeveling gezien? Heeft hij of zij die bevestigd of overschreven?
Geen discriminerende algoritmes
Algoritmes die op basis van postcode, naam, leeftijd of andere beschermde kenmerken indirect discrimineren, zijn verboden. De AI Act verplicht leveranciers tot bias-testing — maar als gebruiker ben jij verantwoordelijk voor het monitoren van uitkomsten in jouw specifieke context.
Praktijkvoorbeeld: een bureau merkt dat het matching-algoritme vrouwen stelselmatig lager scoort voor technische functies. Ook al is het algoritme van de leverancier, de deployer (het bureau) is aansprakelijk voor discriminerende uitkomsten in zijn eigen processen.
Logging en audittrail
Houd bij welk systeem, welke versie en welke aanbeveling heeft geleid tot welke plaatsingsbeslissing. Dit is niet alleen een AI Act-vereiste — het beschermt je ook bij klachten van kandidaten of opdrachtgevers.
Wat moet je nu regelen?
- Inventariseer alle AI-tools in je wervings-, matchings- en plaatsingsproces.
- Bepaal je rol per systeem: ben je gebruiker of aanbieder?
- Vraag leveranciers om documentatie: conformiteitsverklaring, bias-testrapport, technische documentatie.
- Update je kandidaatcommunicatie: vermeld actief het gebruik van AI.
- Stel een toezichtprotocol in: wie reviewt AI-aanbevelingen, hoe en wanneer?
- Monitor op bias: analyseer regelmatig of je plaatsingsresultaten afwijken voor beschermde groepen.
Weet welke AI-tools in jouw bureau hoog-risico zijn
Doe de gratis scan en ontvang binnen 3 minuten een persoonlijk risicorapport.
Start de gratis scan →