Wat betekent de EU AI Act voor jouw bedrijf?

24 maart 2026

AI is tegenwoordig overal: van chatbots op websites tot systemen die kredietaanvragen beoordelen. Ook in marketingsoftware, CRM systemen, gespreksanalyseplatformen en dynamische prijsmodules zit vaak AI, soms zonder dat je het doorhebt. Om ervoor te zorgen dat AI veilig, eerlijk en transparant wordt gebruikt, heeft de Europese Unie de EU AI Act ingevoerd. Maar wat betekent deze wet concreet voor jouw MKB bedrijf?

Wat betekent de EU AI Act voor jouw bedrijf?

Wat is de EU AI Act?

De EU AI Act is de eerste AI wetgeving ter wereld. De wet trad formeel in werking op 1 augustus 2024 en gaat stap voor stap verplichtingen invoeren tot augustus 2026. De wet geldt voor alle organisaties die AI gebruiken, ongeacht of ze zelf AI bouwen of AI gebruiken via software van derden. De EU hanteert een risico gebaseerd model, met vier categorieën.

De officiële risicocategorieën:

  1. Minimaal risico (geen verplichtingen)
    ​Voorbeelden:
    • spamfilters
    • videogames
    • aanbevelingssystemen (in veel gevallen)
  2. Gelimiteerd (beperkt) risico — transparantieplicht
    Hier moet de gebruiker weten dat hij met een AI systeem te maken heeft.
    ​Voorbeelden:
    • chatbots
    • deepfakes
    • AI systemen die tekst of beeld genereren (afhankelijk van toepassing)
  3. General Purpose AI (GPAI)
    Generatieve modellen zoals LLM’s (Large Language models als bijv. GPT modellen) vallen onder deze aanvullende regels. Verplichtingen voor AI aanbieders:
    • technische documentatie
    • samenvatting van trainingsdata
    • cybersecurity
    • modelevaluaties
  4. Hoog risico — strenge eisen vanaf augustus 2026
    Hoogrisico AI is AI die direct impact heeft op het leven van mensen.
    ​Voorbeelden volgens de wet:
    • AI voor toegang tot onderwijs & beroepen
    • AI voor werving, HR & personeelsbeheer
    • AI in essentiële publieke diensten
    • AI in rechtshandhaving
    • AI in medische prognoses

    Verplichtingen omvatten o.a.:
    • risicobeheer
    • data governance & datakwaliteit
    • technische documentatie
    • registraties in EUdatabases
    • logging
    • menselijke controle​
  5. Onacceptabel risico — per februari 2025 verboden
    ​Voorbeelden van verboden systemen:
    • sociale scoring
    • manipulatieve AI die gedrag verstoort
    • AI die kwetsbare groepen uitbuit
    • emotion recognition in werk/onderwijs
    • remote biometrische identificatie (met enkele uitzonderingen)

 

Moet jouw organisatie iets doen met met de AI Act?

Ja, de wet geldt voor iedere organisatie die AI gebruikt, zelfs indirect via softwareleveranciers.

 

Hoe hoog zijn de boetes voor het niet naleven van de AI Act?

Boetes kunnen oplopen tot: €35 miljoen of 7% van de wereldwijde omzet. 
Dit maakt de AI Act zelfs strenger dan de GDPR.

 

AI Act Stappenplan voor mkb’ers

Hieronder vind je een stappenplan:

  1. Breng alle AItools in kaart
    Ook AI die “verstopt zit” in software moet worden meegenomen.
  1. Stel een AIbeleid op
    Denk aan: wat mag wel/niet, datagebruik, privacy, transparantie, menselijke controle, beveiliging.
  1. Train medewerkers in veilig & verantwoord AIgebruik
    Dit sluit aan bij transparantie eisen en organisatorische verplichtingen.
  1. Gebruik je hoog risico AI?
    Dan gelden o.a. verplichte documentatie, risicobeheer, logging en menselijke controle vanaf augustus 2026.
  1. Werk met betrouwbare leveranciers die voldoen aan EUregels
    GPAIleveranciers zoals Microsoft, Google en OpenAI hebben al vrijwillige EU afspraken ondertekend.

 

Conclusie

Ook als je maar een beetje AI gebruikt, moet je aan de EU AI Act voldoen. Sommige verplichtingen gelden al en de rest volgt uiterlijk in 2026. De beste voorbereiding begint nu: inventariseren, beleid opstellen, medewerkers trainen en controleren of je tools compliant zijn.

N.B. dit is een advies, wij zijn geen juristen! Voor de wettelijke regels moet je natuurlijk bij een jurist zijn of de overheid.

Regels voor het werken met veilige AI | Ondernemersplein

Pagina delen: