De EU AI-verordening

Met de inwerkingtreding van Verordening (EU) 2024/1689, beter bekend als de “Artificial Intelligence Act” (AI Act of RIA), zet de Europese Unie een historische stap in de regulering van kunstmatige intelligentie. Het is een van de eerste horizontale rechtskaders ter wereld dat specifiek is gewijd aan AI, met als ambitie de technologie te ontwikkelen en toe te passen in overeenstemming met Europese waarden, waarbij mensgerichtheid, veiligheid en innovatie centraal staan.
De AI Act beoogt een uniforme en geharmoniseerde aanpak voor de inzet van betrouwbare en mensgerichte AI binnen de EU. Daarbij wordt een hoog beschermingsniveau van gezondheid, veiligheid en fundamentele rechten nagestreefd, zoals verankerd in het Handvest van de grondrechten van de EU. Tegelijkertijd biedt de verordening ruimte aan technologische vooruitgang en economisch concurrentievermogen.
De reikwijdte van de AI Act is breed: ze is van toepassing op AI-systemen die in de EU worden aangeboden, geïmplementeerd of gebruikt, ongeacht of deze binnen of buiten de EU zijn ontwikkeld. Ook systemen waarvan de resultaten binnen de EU worden benut, vallen onder het toepassingsgebied.
Risicogebaseerde indeling van AI-systemen
Een centrale pijler van de AI Act is het classificatiemodel op basis van risico. AI-systemen worden onderverdeeld in vier categorieën:
- Onaanvaardbaar risico: Deze systemen worden verboden omdat ze een bedreiging vormen voor de veiligheid of fundamentele rechten. Het gaat bijvoorbeeld om AI voor manipulatieve doeleinden, sociale score, of realtime biometrische identificatie in openbare ruimten, met slechts beperkte uitzonderingen voor justitieel gebruik.
- Hoog risico: Denk aan AI in medische apparatuur, kritieke infrastructuur, onderwijs, werkgelegenheid of wetshandhaving. Voor deze systemen gelden strikte eisen zoals registratie in een centrale EU-database, risicobeoordeling voorafgaand aan marktintroductie, en voortdurende monitoring gedurende de levenscyclus.
- Beperkt risico: Generatieve AI valt hier doorgaans onder. Voor deze systemen gelden transparantieverplichtingen: gebruikers moeten worden geïnformeerd wanneer inhoud door AI is gegenereerd, en er moeten voorzorgsmaatregelen zijn tegen illegale of misleidende output, zoals deepfakes. Ook dienen ontwikkelaars samenvattingen te verstrekken van auteursrechtelijk beschermd trainingsmateriaal.
- Minimaal risico: Hieronder vallen bijvoorbeeld spamfilters of AI in videogames. Hoewel deze systemen grotendeels zijn vrijgesteld van wettelijke verplichtingen, kunnen leveranciers vrijwillige gedragscodes hanteren.
Verantwoordelijkheden van marktdeelnemers
De verordening kent duidelijke rollen en verplichtingen toe aan de verschillende actoren in de AI-waardeketen:
- Leveranciers en ontwikkelaars van hoog-risico AI-systemen zijn verantwoordelijk voor naleving van technische eisen, risicobeoordelingen, documentatie en CE-markering – ongeacht of ze binnen of buiten de EU gevestigd zijn.
- Plaatsers (natuurlijke of rechtspersonen die AI professioneel inzetten) zijn verplicht tot naleving zodra zij een hoog-risico systeem toepassen waarvan de resultaten in de EU worden gebruikt.
- Importeurs dienen vóór de invoer van een AI-systeem na te gaan of het product aan de Europese eisen voldoet, inclusief de conformiteitsbeoordeling en de beschikbaarheid van technische documentatie.
- Distributeurs moeten controleren of CE-markering, gebruikersinformatie en de EU-conformiteitsverklaring correct aanwezig zijn vóór distributie binnen de Unie.
Specifieke bepalingen voor AI-systemen voor algemeen gebruik
AI-modellen met brede toepasbaarheid (foundation models) moeten voorzien zijn van uitgebreide technische documentatie, inclusief informatie over trainingsdata en gebruiksaanwijzingen. Wanneer deze systemen worden vrijgegeven onder een open licentie – met openbaar gemaakte parameters – gelden hierop echter uitzonderingen.
Indien zulke modellen geïntegreerd worden in een hoog-risico toepassing, dienen ontwikkelaars samen te werken met aanbieders van die eindtoepassing om gezamenlijke naleving te waarborgen.
Voor modellen met systeemrisico’s – bijvoorbeeld modellen met een rekenkracht groter dan 10²⁵ flops – gelden aanvullende verplichtingen op het vlak van transparantie, cybersecurity, energiebesparing en incidentrapportage.
Vrijstellingen
De AI Act geldt niet voor systemen die uitsluitend worden gebruikt voor militaire of nationale veiligheidstoepassingen, noch voor AI die is ontwikkeld in het kader van fundamenteel wetenschappelijk onderzoek. Ook individuen die AI enkel voor strikt persoonlijke doeleinden inzetten, vallen buiten de reikwijdte. Bepaalde open source AI-modellen zijn eveneens vrijgesteld, tenzij ze onder andere transparantieverplichtingen of verbodsbepalingen vallen.
Innovatie en ondersteuning voor het mkb
Hoewel de AI Act streng oogt, bevat zij ook stimulerende maatregelen voor innovatie. Vooral kmo’s en start-ups kunnen rekenen op ondersteuning, zoals vereenvoudigde procedures, prioritaire toegang tot gereguleerde testomgevingen (AI-sandboxes), en richtlijnen voor naleving van technische normen.
Via de lidstaten komen er ook bewustmakingscampagnes en opleidingsprogramma’s, specifiek gericht op het mkb, om hen wegwijs te maken in de toepassing van de regelgeving.
De AI Act is zonder twijfel een mijlpaal in de regulering van kunstmatige intelligentie. Hoewel de implementatie complex is, biedt het kader helderheid en waarborgen in een domein waar technologische vooruitgang razendsnel evolueert. De uitdaging zal zijn om de juiste balans te vinden tussen bescherming van fundamentele rechten en het behouden van een innovatief klimaat waarin Europese bedrijven kunnen blijven concurreren op wereldniveau.
Meer weten over wat de AI Act betekent voor uw organisatie? Spreek met uw Novagraaf consultant of neem hier contact met ons op. Abonneer op onze nieuwsbrief om op de hoogte te blijven van het laatste nieuws.
Dit artikel is geschreven door Catherine Caspar, Expert Industriële Eigendom – Octrooien, Novagraaf Frankrijk.