Verordening artificiële intelligentie

De EU-verordening inzake artificiële intelligentie (AI-verordening) stelt een regelgevingskader vast dat ervoor moet zorgen dat alleen AI-systemen op de markt komen die de EU-wetgeving respecteren. De verordening wil ook de ontwikkeling van een interne markt voor AI-toepassingen vergemakkelijken.
©:

gepubliceerd op 31.07.24 door de redactie, prevent.be

Geactualiseerd op:

Wettelijk kader

De AI-verordening (Verordening (EU) 2024/1689 van 13 juni 2024 tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie en tot wijziging van de Verordeningen (EG) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 en (EU) 2019/2144, en de Richtlijnen 2014/90/EU, (EU) 2016/797 en (EU) 2020/1828) werd op 12 juli 2024 gepubliceerd in het Europees Publicatieblad. Ze vormt de eerste wetgeving over AI ter wereld.

De verordening legt geharmoniseerde regels vast voor het in de handel brengen van AI-systemen in de EU en waarborgt zo het vrije verkeer van op AI gebaseerde goederen en diensten in de EU. AI-systemen moeten mensgericht en betrouwbaar zijn, onder andere om de gezondheid en veiligheid te beschermen.

De AI-verordening is een aanvulling op de bestaande Europese wetgeving op het gebied van gegevensbescherming, consumentenbescherming, grondrechten, werkgelegenheid, bescherming van werknemers, en productveiligheid. Ze is van toepassing vanaf 2 augustus 2026, met uitzondering van enkele specifieke bepalingen.

AI-systeem: definitie

Een AI-systeem

= een op een machine gebaseerd systeem 

  • dat is ontworpen om met verschillende niveaus van autonomie te werken, en 
  • dat na het inzetten ervan aanpassingsvermogen kan vertonen, en 
  • dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen

AI-verordening, art. 3 

Belangrijkste kenmerken

Een belangrijk kenmerk van AI-systemen is hun inferentievermogen. Dat houdt in dat output (zoals voorspellingen, content, aanbevelingen of besluiten) wordt verkregen waarmee fysieke en virtuele omgevingen kunnen worden beïnvloed, en dat modellen en/of algoritmen afgeleid kunnen worden uit input of data. 

AI-systemen zijn ontworpen om op verschillende autonomieniveaus te werken: ze zijn tot op zekere hoogte onafhankelijk van menselijke tussenkomst en kunnen dus zelf functioneren. AI-systemen zijn in staat te leren en kunnen zich aanpassen, waardoor ze tijdens het gebruik kunnen veranderen. 

Ze kunnen op standalonebasis worden gebruikt of als onderdeel van een product, ongeacht of het systeem fysiek in het product is geïntegreerd (ingebed) of de functionaliteit van het product ondersteunt zonder erin te zijn geïntegreerd (niet-ingebed).

Risico's identificeren

Om het vrije verkeer van producten op de interne markt te vergemakkelijken en ervoor te zorgen dat alleen veilige producten op de markt worden gebracht, is het belangrijk om de veiligheidsrisico's te voorkomen en te beperken die een product kan veroorzaken door zijn digitale componenten (zoals AI-systemen). Autonome robots, bijvoorbeeld, moeten hun functies veilig kunnen uitvoeren in complexe omgevingen. Ook in de gezondheidssector moeten diagnosesystemen en systemen die menselijke beslissingen ondersteunen, betrouwbaar en nauwkeurig zijn. 

Risiconiveaus

De nieuwe wetgeving bevat verplichtingen voor AI-aanbieders en regelt de toestemming voor het gebruik van AI-systemen op de interne markt van de EU. Er zijn vier risiconiveaus vastgelegd voor het gebruik van AI:

  • Minimale of geen risico's: De overgrote meerderheid van de AI-systemen brengt geen risico's met zich mee. Ze kunnen dus blijven gebruikt worden en zullen niet gereguleerd of beïnvloed worden door de AI-wetgeving van de EU.
  • Beperkte risico's: AI-systemen die slechts beperkte risico's met zich meebrengen, zullen worden onderworpen aan zeer milde transparantieverplichtingen (bv. aangeven dat de inhoud door AI gemaakt is).
  • Hoge risico's: Er zal toestemming worden verleend voor een breed scala aan AI-systemen met een hoog risico, maar die worden onderworpen aan een aantal vereisten en verplichtingen voordat ze op de EU-markt worden toegelaten.
  • Onaanvaardbare risico's: De risico’s van sommige AI-systemen worden onaanvaardbaar geacht. Die systemen mogen niet in de EU worden gebruikt (zie kader). 

Verboden AI-systemen 

De AI-verordening verbiedt AI-systemen die:

  • technieken gebruiken om menselijk gedrag te manipuleren 
  • iemands kwetsbaarheid (door leeftijd of handicap) uitbuiten om zijn of haar gedrag wezenlijk te veranderen op een manier die fysieke of psychologische schade veroorzaakt
  • bedoeld zijn om de betrouwbaarheid van personen te beoordelen of een rangorde ervan vast te stellen op basis van hun sociale gedrag of persoonlijke kenmerken en die kunnen leiden tot een nadelige behandeling 
  • bedoeld zijn om te worden gebruikt om de emotionele toestand van personen te detecteren in situaties die verband houden met de werkplek en het onderwijs (behalve om medische of veiligheidsredenen)
  • biometrische identificatie mogelijk maken op afstand in realtime van personen in openbare ruimten voor rechtshandhavingsdoeleinden (behalve om veiligheidsredenen: opsporing van slachtoffers van misdrijven, voorkoming van een onmiddellijke bedreiging van het leven of de persoonlijke veiligheid of van een terroristische aanslag, opsporing van daders van de zwaarste misdrijven)

AI-systemen als veiligheidscomponenten van producten

AI-systemen kunnen nadelige gevolgen hebben voor de veiligheid en gezondheid van personen, vooral als dergelijke systemen functioneren als veiligheidscomponenten van producten. Volgens de AI-verordening zijn dat laatste soort systemen systemen met een hoog risico. Het gaat dan om: machines, speelgoed, liften, uitrusting en beveiligingssystemen voor gebruik op plaatsen met ontploffingsgevaar, radioapparatuur, drukapparatuur, pleziervaartuigen, kabelbaaninstallaties, gastoestellen, medische hulpmiddelen (bv. voor in-vitrodiagnostiek), en de automobiel- en de luchtvaartsector.

Op AI-systemen met een hoog risico die in een product zijn geïntegreerd, moet een fysieke CE-markering worden aangebracht, en eventueel een digitale CE-markering. Voor AI-systemen met een hoog risico die alleen digitaal worden verstrekt, volstaat een digitale CE-markering.


Bronnen/meer info 

Upgrade jouw abonnement

Deze tekst is momenteel niet toegankelijk binnen jouw abonnementsformule. 
Ontdek onze verschillende formules.