Zorg

EU AI Act voor de zorgsector: welke AI-systemen vallen onder hoog-risico?

Ziekenhuizen, klinieken en zorgorganisaties gebruiken steeds meer AI — van beeldanalyse tot triage-algoritmes. Welke systemen zijn hoog-risico, wat zijn de verplichtingen, en wat doet de overlap met MDR?

Danny Verbeek — EU AI Act Specialist 17 maart 2026 9 min leestijd

De zorgsector staat voor een dubbele compliance-uitdaging. Veel medische AI-systemen vallen al onder de EU Medical Device Regulation (MDR) — maar de EU AI Act voegt daar een tweede laag verplichtingen aan toe. En voor AI die niet als medisch hulpmiddel is geclassificeerd maar toch klinische beslissingen ondersteunt, is de AI Act soms het enige toetsingskader.

Samenvatting voor zorgbestuurders: vrijwel alle AI die invloed heeft op diagnose, behandeling, triage of patiëntbeheer valt als hoog-risico onder de EU AI Act. Volledige handhaving start op 2 augustus 2026.

Hoog-risico AI in de zorg: de categorieën

Bijlage III van de EU AI Act noemt expliciete categorieën die als hoog-risico worden aangemerkt. In de zorgsector zijn dat primair:

AI-toepassingVoorbeelden in de zorgClassificatie
Medische diagnostiek Radiologie-AI, pathologie-analyse, ECG-interpretatie Hoog-risico
Klinische beslissingsondersteuning Sepsis-voorspellers, medicatieaanbevelingen, triagemodellen op de SEH Hoog-risico
Risicoklassificatie patiënten Heropname-risicoscores, valrisico-modellen, readmissie-algoritmes Hoog-risico
Geestelijke gezondheid Suïcidepreventiescreening, burn-outdetectie via tekst of spraak Hoog-risico
Personeels- en roostersystemen AI-gestuurde personeelsplanning, ziekteverzuimvoorspelling Hoog-risico (HR)
Administratieve automatisering Declaratiecontrole, AI-codeertools voor DRG/DBC Beperkt risico

De overlap met de MDR

Wanneer een AI-systeem al als medisch hulpmiddel is gecertificeerd onder de MDR (klasse IIa, IIb of III), gelden er speciale afspraken in de EU AI Act: de conformiteitsbeoordeling mag gedeeltelijk worden samengevoegd. Maar de AI Act-verplichtingen rond transparantie, menselijk toezicht en logging zijn aanvullend — die verdwijnen niet.

Valkuil: sommige AI-tools in de zorg zijn aangeschaft als "software" of "beslissingsondersteunend instrument" zonder MDR-classificatie. Als ze toch klinische beslissingen beïnvloeden, vallen ze onder hoog-risico AI Act-verplichtingen — zonder dat de leverancier ooit een conformiteitsverklaring heeft opgesteld.

Wat zijn de verplichtingen voor zorgorganisaties?

Risicobeheersysteem per AI-systeem

Voor elk hoog-risico AI-systeem moet een gedocumenteerd risicobeheersysteem worden bijgehouden. In de zorg betekent dit: welke patiëntenpopulaties worden geraakt, wat zijn bekende beperkingen van het model (bias, generaliseerbaarheid), en hoe worden fouten gedetecteerd en gecorrigeerd?

Menselijk toezicht — ook bij volledig geautomatiseerde systemen

Een radioloog die een AI-bevinding bevestigt vóór rapportage is een vorm van menselijk toezicht. Maar dit toezicht moet aantoonbaar en gedocumenteerd zijn. Een systeem waarbij de AI-uitkomst automatisch in het EPD wordt geschreven zonder review, voldoet niet.

Kwaliteitsbeheer en logging

Zorgorganisaties moeten logs bijhouden van AI-beslissingen. Bij klachten, calamiteiten of inspecties moet reconstructie mogelijk zijn: welk model, welke versie, welke input, welke output, wie heeft het beoordeeld?

Training van zorgprofessionals

Medewerkers die met hoog-risico AI werken, moeten getraind zijn in de mogelijkheden én beperkingen van het systeem. Blind vertrouwen op AI-uitkomsten is een compliance-risico én een patiëntveiligheidsrisico.

Wat als uw leverancier niet voldoet?

Zorgorganisaties zijn als deployers (gebruikers) zelf verantwoordelijk voor naleving van de AI Act. Als uw leverancier geen conformiteitsverklaring, technische documentatie of CE-markering kan overleggen, loopt uw organisatie risico — zelfs als het systeem extern is aangeschaft.

Praktische stap: stuur uw AI-leveranciers een vragenlijst over hun AI Act-gereedheid. Leveranciers die niet kunnen antwoorden, zijn een signaal dat het systeem niet klaar is voor 2026.

Prioriteiten voor zorgorganisaties in 2026

  1. Inventariseer alle AI-systemen met klinische impact — ook modules in EPD's en RIS/PACS-systemen.
  2. Controleer MDR-status en bepaal of aanvullende AI Act-compliance nodig is.
  3. Vraag leveranciers om documentatie: conformiteitsverklaring, technische documentatie, registratie in de EU AI-database.
  4. Documenteer menselijk toezicht voor elk hoog-risico systeem.
  5. Train betrokken zorgprofessionals in verantwoord AI-gebruik.

Weet welke AI-systemen in uw zorgorganisatie hoog-risico zijn

Doe de gratis scan en ontvang een persoonlijk risicorapport binnen 3 minuten.

Start de gratis scan →