EU / Pearle*
De EU-wet op kunstmatige intelligentie (AI Act)
18 april 2025
Hier volgen de laatste ontwikkelingen en gevolgen voor de sector van liveoptredens. Met een focus op werkgelegenheid en sociale zaken.
De Europese AI-wet (AI Act), aangenomen in 2024 en van kracht vanaf 1 augustus 2024, is ’s werelds eerste uitgebreide regelgeving voor kunstmatige intelligentie. Het doel is om AI-systemen die binnen de EU worden ontwikkeld en gebruikt veilig te maken en fundamentele rechten te waarborgen.
Achtergrond
De wet werkt met een risicogebaseerde benadering: verplichtingen voor aanbieders en gebruikers hangen af van het risico dat een AI-systeem vormt voor individuen of de samenleving.
De vier risiconiveaus van AI-systemen zijn:
- Onaanvaardbaar risico – Verboden (bijv. sociale scores, realtime biometrische surveillance)
- Hoog risico – Strikte eisen (bijv. wervingssoftware, beoordelingsinstrumenten in het onderwijs)
- Beperkt risico – Transparantieverplichtingen (bijv. chatbots, AI-gegenereerde inhoud)
- Minimaal of geen risico – Geen verplichtingen, wel aanmoediging tot vrijwillige gedragscodes
Voor de sector van liveoptredens zullen de meeste AI-systemen waarschijnlijk onder de categorieën “beperkt” of “minimaal risico” vallen. Deze toelichting richt zich op aspecten die van belang zijn voor werkgevers.
1 AI-systemen met hoog risico (Bijlage III, AI Act)
Bepaalde HR-, wervings- of trainingsinstrumenten kunnen als hoog-risico worden aangemerkt, vooral als ze worden ingezet voor:
- Gericht adverteren voor vacatures
- Selecteren of rangschikken van sollicitaties
- Beoordelen of scoren van kandidaten
- Besluiten over promotie of ontslag
- Taken toewijzen op basis van gedrag of kenmerken van medewerkers
- Het monitoren of evalueren van prestaties of gedrag
Mogelijke uitzonderingen
Sommige AI-systemen worden níét als hoog risico beschouwd als ze:
- Alleen een beperkte procedurele taak uitvoeren
- Ondersteunen, maar geen grote invloed hebben op een menselijke beslissing
- Alleen patronen of afwijkingen detecteren, zonder het eindresultaat te bepalen
- Voorbereidende stappen zijn voor menselijke beoordeling
Let op: als het systeem mensen profileert op basis van gevoelige of beschermde kenmerken, geldt het altijd als hoog risico – ongeacht context of doel.
Welke verplichtingen gelden er bij hoog risico?
Werkgevers moeten o.a. het volgende doen:
- Een risicobeheersysteem implementeren
- Zorgen voor kwalitatief goede en representatieve inputdata (voor zover ze hier controle over hebben)
- Menselijke controle garanderen: wijs getraind personeel aan dat het systeem kan monitoren en indien nodig overrulen
- Automatisch gegenereerde loggegevens bijhouden (minimaal 6 maanden, indien mogelijk)
- Werknemers en hun vertegenwoordigers vooraf informeren over het gebruik van zo’n systeem (volgens EU- en nationale regels)
- Waar nodig een gegevens-beschermingseffect-beoordeling uitvoeren (zoals vereist onder de AVG).
2 AI-geletterdheid – Artikel 4 (AI Act)
Naast de regels over classificatie en gebruik van AI-systemen verplicht Artikel 4 werkgevers om AI-geletterdheid bij medewerkers te bevorderen.
Wat houdt Artikel 4 in?
Het legt een algemene verplichting op aan aanbieders en gebruikers van AI om ervoor te zorgen dat hun personeel (en anderen die namens hen handelen) voldoende kennis van AI heeft. Dit geldt ongeacht het risiconiveau van de gebruikte AI.
Artikel 4 is van toepassing vanaf 2 februari 2025.
Wat is AI-geletterdheid en waarom is het belangrijk?
AI-geletterdheid gaat verder dan alleen technische kennis. Het omvat ook het kritisch kunnen begrijpen van AI-gebruik, het herkennen van kansen, en het bewust zijn van risico’s en mogelijke schade. Het is cruciaal voor:
- Het maximaliseren van de positieve impact van AI, met respect voor grondrechten, veiligheid en democratische controle
- Het naleven van EU-wetgeving, zoals de AI Act
- Het bevorderen van innovatie en eerlijke arbeidsomstandigheden met betrouwbare AI-systemen
Belangrijk: AI-geletterdheid is niet alleen voor techneuten – iedereen moet op een geïnformeerde manier met digitale technologie kunnen omgaan.
Welk niveau is voldoende?
De wet noemt “voldoende AI-geletterdheid”, maar schrijft geen universeel model voor. Het vereiste niveau hangt af van:
- De gebruikte of geplande AI-systemen
- Het bijbehorende risiconiveau
- De bestaande kennis van medewerkers
- De rol van iemand t.o.v. het systeem (ontwikkelaar, gebruiker, beslisser of indirect betrokkene)
AI-geletterdheid moet dus afgestemd worden op de context van je organisatie en de impact van de gebruikte AI.
Hoe ziet dit er in de praktijk uit?
Het EU AI Office heeft een online overzicht gemaakt met praktijkvoorbeelden van organisaties die AI-geletterdheid actief stimuleren via het AI Pact. Dit overzicht helpt bij kennisdeling en leren van anderen.
Ook als je (nog) geen hoog-risico systemen gebruikt, is het verstandig om alvast te investeren in basiskennis en ethisch bewustzijn rond AI. Dit vergroot je weerbaarheid en voorbereiding op toekomstige regelgeving.
Tips: Hoe begin je?
- Breng het AI-gebruik in kaart
Welke systemen zijn in gebruik? Door wie, en waarvoor? Let ook op “shadow AI” (tools die zonder toestemming worden gebruikt). - Beoordeel de risico’s
Wat is de impact op rechten van individuen? Welke gegevens worden gebruikt? Is het systeem veilig en transparant? - Evalueer AI-kennis en -rollen in je organisatie
Wie weet wat van AI? Waar zitten kennis- of vaardigheidstekorten? Maak ook duidelijk wie welke rol speelt (gebruiker, ontwikkelaar, beslisser, etc.). - Pas het leertraject aan per rol
HR-medewerkers hebben andere kennis nodig dan technici of leidinggevenden. Stem trainingen af op taken en verantwoordelijkheden. - Bied training en ondersteuning aan
Zorg voor toegankelijke leermogelijkheden, algemene training én gerichte modules per functie. Combineer vormen zoals cursussen en peer learning. - Informeer externe partijen
Leveranciers, klanten of gebruikers die met je AI-systemen te maken hebben, moeten ook goed geïnformeerd zijn – zeker als persoonsgegevens in het spel zijn. - Leg AI-leeractiviteiten vast
Houd bij wie, wanneer, en waarin getraind is. Zo toon je aan dat je voldoet aan de wetgeving.
Conclusie en vervolgstappen
De AI Act markeert een belangrijke stap in het verantwoord gebruik van kunstmatige intelligentie in de EU.
In deze eerste toelichting lag de focus op werkgevers: de impact van hoog-risico AI-systemen en de nieuwe verplichting rond AI-geletterdheid (Artikel 4). Maar de gevolgen reiken verder dan HR of interne processen.
Ook voor de creatieve en culturele sector – denk aan kunstproductie, publieksinteractie of contentcreatie – brengt de wet uitdagingen én kansen met zich mee.
Een tweede deel van deze briefing is in voorbereiding, waarin wordt ingegaan op de gevolgen voor artistieke en creatieve toepassingen van AI, inclusief transparantie-eisen.