Bron

Europese Commissie

De Europese Commissie keurt het allereerste juridische kader ter wereld voor A.I. goed: welke impact heeft dit voor podia en festivals?

21 februari 2024

Op 13 februari 2024 is, na een politiek akkoord dat december 2023 werd overeengekomen, door de de twee EP-verantwoordelijke commissies voor nieuwe regels inzake kunstmatige intelligentie gestemd. De zogenaamde AI Act is er.

Dit is de eerste wetstekst ter wereld die tot doel heeft een juridisch kader op te zetten voor de ontwikkeling en het gebruik van A.I. De nieuwe EU-verordening over A.I. richt zich op het versterken van regels op vier gebieden: gegevenskwaliteit, transparantie, menselijk toezicht en verantwoordelijkheid. Het gaat ook in op ethische vragen met betrekking tot de ontwikkeling en het gebruik van A.I.

Ontdek hier direct:

Voor iedereen die A.I. ontwikkelt en inzet, stelt de tekst duidelijke eisen en verplichtingen vast met betrekking tot specifieke gebruikstoepassingen van de technologie.
Afhankelijk van de impact die het gebruik van A.I. kan hebben en of het schadelijk kan zijn voor burgers, verdeelt de Commissie de verschillende toepassingen in vier risiconiveaus (zie onder).

Wat gebeurt er bij niet-naleving van de regels?

De Artificial Intelligence Act omvat stevige boetes voor niet-naleving. Voor bedrijven kunnen boetes oplopen tot 35 miljoen euro of 7% van het wereldwijde inkomen (afhankelijk van de aard van de overtreding). Het indienen van valse of misleidende documentatie bij regelgevers kan ook leiden tot boetes.

Transparantie-eisen voor algemene A.I.

Algemene A.I.-systemen, zoals ChatGPT, DALL E 2,… en de modellen waarop ze gebaseerd zijn, moeten voldoen aan transparantie-eisen. Deze omvatten het opstellen van technische documentatie, naleving van het EU-auteursrecht en het geven van gedetailleerde samenvattingen over de inhoud die voor training wordt gebruikt. Algemene A.I.-modellen met een hoge impact en systemisch risico hebben zelfs strengere verplichtingen. Transparantie- en auteursrechtelijke nalevingsverplichtingen zijn vooral belangrijk voor kunstenaars. Deze verplichtingen zullen resulteren in een grotere bescherming van intellectuele eigendomsrechten.

Het EU-classificatiesysteem om het risiconiveau te bepalen

De EU heeft een classificatiesysteem ontwikkeld dat het risiconiveau bepaalt dat een A.I.-technologie kan vormen voor de gezondheid en veiligheid of de fundamentele rechten van een persoon.

De EU definieert 4 risiconiveaus in A.I.:

  • Ongewenst risico
  • Hoog risico
  • Beperkt risico
  • Minimaal of geen risico

De nieuw voorgestelde A.I. – Act richt zich op A.I.-systemen met een hoog risico.

Ongewenst risico

Alle A.I.-systemen die als een duidelijke bedreiging worden beschouwd voor de veiligheid, het levensonderhoud en de rechten van mensen, zullen verboden zijn. Zo zijn bijvoorbeeld overheids-sociale scores en real time biometrische identificatiesystemen op openbare plaatsen verboden (met weinig uitzonderingen). Het manipuleren van menselijk gedrag door A.I. is ook verboden, zoals speelgoed met spraakassistentie die gevaarlijke handelingen aanmoedigt. De bedreiging voor de democratie valt ook onder deze categorie.

Hoog risico

A.I.-systemen die onder deze categorie vallen, zijn toegestaan, maar zullen aan strenge verplichtingen worden onderworpen voordat ze op de markt kunnen worden gebracht. Dit omvat een adequate risicobeoordeling, bewijs van de hoge kwaliteit van de datasets die het systeem voeden, de traceerbaarheid van resultaten, duidelijke informatie aan de gebruiker, menselijke toezichtsmaatregelen.

Om een paar voorbeelden te noemen, A.I. die als hoog risico wordt beschouwd, omvat autonome voertuigen, medische apparaten en grensbeheer met behulp van de verificatie van de authenticiteit van reisdocumenten.

Er zijn twee categorieën in de Commissieverordening vermeld als hoog risico op het gebied van HR/werkgelegenheid, die van belang kunnen zijn voor organisaties die live optredens verzorgen (zie onder meer).

Beperkt risico

Beperkt risico verwijst naar A.I.-systemen met specifieke transparantieverplichtingen. Bij het gebruik van A.I.-systemen zoals chatbots, moeten gebruikers zich ervan bewust zijn dat ze met een machine interageren zodat ze een afgewogen beslissing kunnen nemen om door te gaan of terug te stappen.

Minimaal of geen risico

De overgrote meerderheid van de A.I.-systemen die momenteel in de EU worden gebruikt, valt onder deze categorie. A.I.-systemen met beperkt en minimaal risico – zoals spamfilters of videogames – mogen worden gebruikt met weinig vereisten, afgezien van transparantieverplichtingen.

Waarom is het belangrijk voor VNPF-leden?

Organisaties die live optredens verzorgen, zoals podia en festivals, zullen voornamelijk uitvoerders/gebruikers van A.I.-systemen zijn. Die systemen zijn al gebruikt of zullen worden gebruikt in verschillende contexten in het dagelijkse werk van professionals.

Drie gebieden die interessant kunnen zijn voor onze sector:

In de context van artistieke creaties:

  • “creatie” van kunst (verdere vragen over auteursrechten nog ter discussie).
  • interactie tussen het publiek en A.I.-programma’s die een specifiek, uniek optreden creëren.
  • ondertitels bij live-evenementen en vertalingen van (theater)voorstellingen.

Voor de ontwikkeling van organisatieactiviteiten:

  • Publieksontwikkeling.
  • Communicatieactiviteiten zoals het opstellen van teksten, brochures, aankondigingen, het maken van posters, logo’s, enz. met A.I. gegenereerde inhoud (zoals ChatGPT).
  • Archivering en documentatie.

In de context van werkgelegenheid en sociale zaken / HRM

  • Onderwijs- en beroepsopleidingsactiviteiten
  • Werkgelegenheid van mensen/wervingsproces en beheer van werknemers.

De meeste kunstmatige intelligentiesystemen die in de live  sector worden gebruikt, worden geclassificeerd als beperkt of minimaal risico.

NB: Echter, sommige specifieke activiteiten op het gebied van werkgelegenheid en sociale zaken/HR die A.I.  gebruiken, worden als hoog risico beschouwd in het nieuwe EU-wettelijk kader.

Waarom? Omdat het gaat om de beoordeling van mensen die hun verdere loopbaan, of toegang tot onderwijs zou kunnen bepalen (bijvoorbeeld bij het gebruik van AI voor het scoren van examens). A.I. kan ook worden gebruikt om de prestaties of het gedrag van mensen in een werk-gerelateerde context te evalueren. En A.I.-tools kunnen bepalen wie een plek krijgt in een specifieke cursus of bedrijf (door CV-sortering software te gebruiken voor wervingsprocedures).

Bijlage III van de AI-wetgeving geeft precies aan wat als hoog risico wordt beschouwd. Punten 3 en 4 van Bijlage III zijn relevant:

3 Onderwijs en beroepsopleiding (Education and vocational training)

(a) A.I.-systemen bedoeld om te worden gebruikt voor het bepalen van toegang of toewijzing van natuurlijke personen aan onderwijs- en beroepsopleidingsinstellingen;

(b) A.I.-systemen bedoeld om te worden gebruikt voor het beoordelen van studenten in onderwijs- en beroepsopleidingsinstellingen en voor het beoordelen van deelnemers aan tests die doorgaans vereist zijn voor toelating tot onderwijsinstellingen.

4 Werkgelegenheid, personeelsmanagement en toegang tot zelfstandig ondernemerschap (Employment, workers management and access to self-employment)

(a) A.I.-systemen bedoeld om te worden gebruikt voor de werving of selectie van natuurlijke personen, met name voor het adverteren van vacatures, het screenen of filteren van sollicitaties, het evalueren van kandidaten tijdens interviews of tests;

(b) A.I. bedoeld voor het nemen van beslissingen over promotie en beëindiging van arbeids-gerelateerde contractuele relaties, voor taaktoewijzing en voor het monitoren en evalueren van prestaties en gedrag van personen in dergelijke relaties.

Verplichtingen voor inzetters/gebruikers van A.I.-systemen met een hoog risico

Bij het beslissen om A.I.-systemen met een hoog risico, zoals hierboven genoemd, te gebruiken, zijn tal van verplichtingen van toepassing op de inzetters van deze systemen. De verplichtingen die het meest relevant zijn voor onze sector zijn:

  • Menselijk toezicht op het A.I.-systeem moet worden toegewezen aan een persoon met de nodige kennis en bevoegdheid.
  • Inzetters moeten ervoor zorgen dat de invoergegevens relevant en voldoende representatief zijn.
  • Er is ook een informatieplicht. Werkgevers moeten vertegenwoordigers van werknemers en de getroffen werknemers informeren dat zij zullen worden onderworpen aan een A.I.-systeem met een hoog risico.
  • Wanneer een beslissing gegenereerd door het A.I.-systeem leidt tot significante effecten, moet de inzetter een duidelijke en betekenisvolle uitleg kunnen geven van de rol van het A.I.-systeem in de besluitvormingsprocedure en de belangrijkste elementen van de beslissing.

Vervolgstappen

De aangenomen tekst wordt rond het begin van april 2024 gepubliceerd in het Publicatieblad van de Unie en treedt 20 dagen later in werking. Na inwerkingtreding zullen de verplichtingen van de A.I.-wetgeving van toepassing zijn na 6 maanden voor verboden A.I.-systemen, na 12 maanden voor algemene A.I., na 24 maanden voor A.I.-systemen met een hoog risico onder Bijlage III, en na 36 maanden voor A.I.-systemen met een hoog risico onder Bijlage II.