De EU AI Act: nieuwe regels en verboden AI-toepassingen in 2025

EU AI Act 2025: Deze AI-toepassingen zijn nu verboden – Wat betekent dit voor jouw bedrijf?
Op 2 februari 2025 is de eerste nalevingsdeadline van de EU AI Act ingegaan. Dit betekent dat bepaalde AI-systemen met een onaanvaardbaar risico nu officieel verboden zijn binnen de Europese Unie. Bedrijven die zich hier niet aan houden, riskeren boetes tot €35 miljoen of 7% van hun wereldwijde omzet.
Wat betekent dit voor organisaties die AI ontwikkelen of gebruiken? In dit artikel leggen we uit welke AI-systemen nu verboden zijn, welke uitzonderingen gelden en hoe bedrijven zich moeten voorbereiden op de strengere regels.
AI-verordening in het kort
De Europese AI-verordening is op 1 augustus 2024 in werking getreden en legt de rechten en verplichtingen vast voor ontwikkelaars en gebruikers van AI-systemen binnen de Europese Unie. Het doel is om de ontwikkeling en toepassing van betrouwbare AI te waarborgen, zodat het vertrouwen van burgers in AI wordt versterkt en er tegelijkertijd ruimte blijft voor innovatie en economische groei.
Om dit te realiseren, hanteert de EU een risicogebaseerde aanpak. AI-systemen worden ingedeeld in drie categorieën:
- Verboden AI – toepassingen met een onaanvaardbaar risico zijn volledig verboden.
- Hoog-risico AI – deze systemen vallen onder strenge regels en toezicht.
- AI met risico op misleiding – voor deze toepassingen gelden transparantie-eisen.
Vanaf 2 februari 2025 zijn bepaalde onaanvaardbare AI-systemen officieel verboden. Voor andere AI-systemen gelden langere overgangsperiodes: vanaf augustus 2026 of augustus 2030 moeten ze volledig aan de wet voldoen.
Wat is de EU AI Act?
De EU AI Act is het eerste uitgebreide wettelijke kader voor AI-regulering ter wereld. Het doel is om transparantie, veiligheid en ethische AI-toepassingen te waarborgen binnen de EU.
De wet deelt AI-systemen in op basis van vier risiconiveaus:
- Minimaal risico – Geen regulering (bijv. spamfilters).
- Beperkt risico – Lichte regulering (bijv. chatbots).
- Hoog risico – Strenge regulering (bijv. AI in de gezondheidszorg).
- Onaanvaardbaar risico – Volledig verboden toepassingen.
Met de nalevingsdeadline van 2 februari 2025 treedt het verbod op onaanvaardbare risico's in werking. Dit betekent dat AI-systemen die als gevaarlijk of onethisch worden beschouwd, niet langer mogen worden gebruikt binnen de EU.
Welke AI-toepassingen zijn verboden?
De EU heeft verschillende AI-toepassingen aangewezen als onaanvaardbaar risico. Dit zijn onder andere:
1. Social scoring
AI-systemen die een risicoprofiel van individuen opstellen op basis van gedrag zijn verboden. Dit soort systemen, vergelijkbaar met het Chinese sociale kredietsysteem, kunnen leiden tot discriminatie en machtsmisbruik.
2. Manipulatie van beslissingen
AI die op subliminale of misleidende wijze beslissingen van mensen beïnvloedt, mag niet meer worden gebruikt. Dit geldt vooral voor toepassingen die onbewuste beïnvloeding gebruiken, zoals bepaalde vormen van neuromarketing of verslavende algoritmes.
3. Uitbuiting van kwetsbare groepen
AI-systemen die misbruik maken van leeftijd, handicap of sociaaleconomische status zijn verboden. Dit voorkomt dat kwetsbare personen op basis van AI-analyse worden gemanipuleerd of benadeeld.
4. Voorspellen van crimineel gedrag op basis van uiterlijk
AI die probeert te voorspellen of iemand een misdaad zal plegen op basis van uiterlijk of demografische kenmerken, is verboden. Dit soort systemen hebben een hoog risico op discriminatie en bias.
5. Biometrische AI voor persoonlijke kenmerken
AI die via biometrische gegevens eigenschappen zoals seksuele geaardheid, politieke voorkeur of religie probeert af te leiden, mag niet worden gebruikt. Dit soort toepassingen zijn een ernstige inbreuk op de privacy.
6. Realtime biometrische surveillance in openbare ruimtes
AI die in echte tijd gezichten en andere biometrische kenmerken scant in publieke ruimtes voor wetshandhaving, is verboden. Dit geldt bijvoorbeeld voor automatische gezichtsherkenning via straatcamera’s.
7. Emotieherkenning op het werk of school
AI die emoties probeert te analyseren in werk- of schoolomgevingen is verboden, omdat dit kan leiden tot ongewenste monitoring en privacy-inbreuken.
8. Scrapen van gezichtsherkenningsdata
AI-systemen die gezichtsherkenningsgegevens verzamelen via online beelden of beveiligingscamera’s, mogen niet meer worden gebruikt. Dit voorkomt dat bedrijven zonder toestemming enorme databanken van gezichten aanleggen.

Wat zijn de consequenties voor bedrijven?
Organisaties die zich niet aan de regels houden, riskeren zware boetes:
- Tot €35 miljoen of 7% van de wereldwijde omzet, afhankelijk van welk bedrag hoger is.
- Deze boetes gelden voor alle bedrijven wereldwijd die AI-diensten aanbieden binnen de EU.
Voorlopig is er een overgangsperiode. De eerste nalevingsdeadline was op 2 februari 2025, maar de handhaving en boetes starten pas in augustus 2025. Dit betekent dat bedrijven nog enkele maanden hebben om hun AI-systemen te controleren en aan te passen.
Welke bedrijven hebben zich al gecommitteerd?
In september 2024 ondertekenden meer dan 100 bedrijven de EU AI Pact, een vrijwillige belofte om de richtlijnen van de AI Act al vroeg na te leven. Grote techbedrijven zoals Amazon, Google en OpenAI deden mee.
Opvallend is dat Meta, Apple en Mistral AI weigerden te tekenen. Dit betekent niet per se dat ze de wet niet zullen naleven, maar ze willen zich niet vroegtijdig vastleggen aan extra toezeggingen.
Zijn er uitzonderingen op het verbod?
Er zijn enkele strikt gereguleerde uitzonderingen:
- Wetshandhaving mag onder specifieke omstandigheden biometrische AI gebruiken in openbare ruimtes. Dit geldt bijvoorbeeld voor het zoeken naar vermiste personen of het bestrijden van directe dreigingen.
- Emotieherkenning mag worden toegepast in medische of veiligheidscontexten, zoals therapeutische toepassingen.
De Europese Commissie zal in 2025 extra richtlijnen en verduidelijkingen publiceren over hoe de AI Act in de praktijk moet worden toegepast.
Hoe moeten bedrijven zich voorbereiden?
Voor AI-ontwikkelaars en bedrijven die AI-systemen inzetten, is het cruciaal om hun huidige en toekomstige AI-toepassingen te evalueren:
- Controleer of uw AI-systemen onder de verboden categorieën vallen.
- Implementeer AI-governance en compliance-processen om naleving te waarborgen.
- Blijf op de hoogte van extra richtlijnen die in de komende maanden worden gepubliceerd.
- Werk samen met juridische en compliance-experts om boetes en juridische risico’s te voorkomen.
Bedrijven die AI inzetten, moeten zich realiseren dat AI-regulering geen op zichzelf staande wetgeving is. De AI Act werkt samen met andere wetten, zoals:
- GDPR (General Data Protection Regulation) – voor privacy en dataopslag.
- NIS2 (Network and Information Security Directive) – voor cybersecurity.
- DORA (Digital Operational Resilience Act) – voor financiële instellingen.
Het is daarom essentieel om een brede compliance-strategie te ontwikkelen.
AI-verordening: verboden praktijken & verplichtingen
Vanaf 2 februari 2025 treedt de Europese AI-verordening (AI Act) gedeeltelijk in werking. Bepaalde AI-praktijken, geclassificeerd als onaanvaardbaar risico, worden vanaf deze datum verboden. Dit omvat onder andere:
- manipulatieve ai: systemen die subliminale of misleidende technieken gebruiken om het gedrag van mensen te beïnvloeden.
- uitbuiting van kwetsbare groepen: ai die zwakke plekken van mensen (zoals leeftijd of handicap) uitbuit met als doel hun gedrag te verstoren.
- sociale scoring: systemen die mensen beoordelen op basis van hun sociale gedrag of persoonlijke kenmerken, wat kan leiden tot discriminatie.
- emotieherkenning op werk en school: tenzij strikt noodzakelijk voor medische of veiligheidsdoeleinden.
- realtime biometrische surveillance: gebruik van ai voor gezichtsherkenning in openbare ruimtes door wetshandhavers, met beperkte uitzonderingen.
Organisaties die deze AI-systemen ontwikkelen of inzetten, moeten per 2 februari 2025 stoppen met deze praktijken om boetes te voorkomen. Overtredingen kunnen leiden tot sancties tot €35 miljoen of 7% van de wereldwijde omzet.
Daarnaast worden bedrijven verplicht te investeren in AI-geletterdheid binnen hun organisatie. Medewerkers moeten voldoende kennis en vaardigheden hebben om kunstmatige intelligentie verantwoord te kunnen gebruiken en risico’s te herkennen.
Conclusie
De EU AI Act markeert een keerpunt in de regulering van AI binnen Europa. De eerste deadline op 2 februari 2025 betekent dat bedrijven nu concrete actie moeten ondernemen om verboden AI-toepassingen te elimineren en compliant te blijven.
De handhaving wordt in de tweede helft van 2025 verder aangescherpt. Voor bedrijven die AI inzetten, is dit hét moment om hun systemen kritisch te bekijken en risico’s te minimaliseren.
Wilt u weten hoe uw organisatie kan voldoen aan de EU AI Act? Neem contact met ons op voor advies en ondersteuning.
Over onze AI trainingen
Zeer leuke interactieve training. Barry vertelde ook zeer passievol en enthousiast over het onderwerp.
- Sander, Achmea -
Stuur mij de gratis AI tips om met AI te gaan werken
Over AI Personeelstraining
AI Personeelstraining is opgericht door Barry van der Laan MBA, een gedreven AI-specialist met een master's degree in Financial Services. Hij combineert zijn diepgaande kennis met een passie voor innovatie om bedrijven te helpen de kracht van AI te benutten.
Van der Laan geeft met zijn team trainingen en ontwikkelt AI tools en AI Beleid. Hij volgt de nieuwste ontwikkelingen op het gebied van AI op de voet en deelt zijn inzichten en expertise in pakkende artikelen en presentaties, waardoor hij een graag geziene spreker is op workshops en conferenties over AI. Zijn expertise reikt verder dan AI in de financiële sector. Hij is ervan overtuigd dat AI een transformatieve kracht kan zijn voor bedrijven in alle sectoren, en helpt organisaties om hun efficiëntie, productiviteit en innovatiekracht te verhogen.
Als eigenaar van AI Personeelstraining richt Van der Laan zich op het opleiden en bijscholen van professionals in AI-technologieën. Hij is daarnaast bestuurslid en penningmeester van de Nederlandse Vereniging voor AI & Robotrecht. Van der Laan's expertise wordt erkend op Europees niveau; hij neemt deel aan werkgroepen van de Europese Commissie voor de ontwikkeling van de General-Purpose AI Code of Practice, waar hij bijdraagt aan AI-beleid op EU-niveau.