Règlement sur l'intelligence artificielle

Commentaire sur la législation
Le règlement de l'UE sur l'intelligence artificielle (IA), première législation au monde sur le sujet, fixe un cadre réglementaire destiné à autoriser uniquement la mise sur le marché de systèmes d'IA sûrs et respectueux de la législation et des droits fondamentaux de l'UE. Il vise également à faciliter le développement d'un marché unique des applications d'IA.
©:

publié le 31.07.24 par la rédaction, prevent.be

Mis à jour le:

Cadre législatif 

Le règlement sur l’intelligence artificielle (règlement (UE) 2024/1689 du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828)) a été publiée au JO du 12 juillet 2024.

Le règlement établit des règles harmonisées concernant la mise sur le marché de systèmes d’IA dans l’UE assurant ainsi la libre circulation des biens et services fondés sur l’IA dans l’UE. Ces systèmes d’intelligence artificielle (IA) doivent être axés sur l’humain et dignes de confiance afin de garantir notamment un niveau élevé de protection de la santé et de la sécurité. Le règlement interdit certaines pratiques en matière d’IA et définit des exigences spécifiques pour les systèmes d’IA à haut risque. 

Ce règlement vient compléter la législation européenne en vigueur, en particulier en ce qui concerne la protection des données, la protection des consommateurs, les droits fondamentaux, l’emploi et la protection des travailleurs, et la sécurité des produits. Il est applicable à partir du 2 août 2026, à l’exception de certaines dispositions spécifiques.
 

Système d'IA: définition

= système automatisé 

  • conçu pour fonctionner à différents niveaux d’autonomie 
  • qui peut faire preuve d’une capacité d’adaptation après son déploiement
  • qui déduit à partir des entrées qu’il reçoit et pour des objectifs explicites ou implicites, la manière de générer des sorties (prédictions, contenu, recommandations, décisions,…) qui peuvent influencer les environnements physiques ou virtuels.

Règlement sur l’intelligence artificielle, art. 3

Caractéristiques principales

Les systèmes d’IA se caractérisent par leur capacité d’inférence: ils peuvent générer des sorties (prédictions, contenu, recommandations, décisions,…), des modèles et/ou des algorithmes à partir d’entrées ou de données. 

Les systèmes d’IA sont conçus pour fonctionner à différents niveaux d’autonomie: ils bénéficient d’un certain degré d’indépendance dans leur action par rapport à une ingérence humaine et disposent de capacités à fonctionner sans intervention humaine. La faculté d’adaptation d’un système d’IA après son déploiement est liée à des capacités d’auto-apprentissage, qui permettent au système d’évoluer en cours d’utilisation. 

Les systèmes d’IA peuvent être utilisés seuls ou en tant que composant d’un produit. Ils sont dits ‘intégrés’ s’ils sont physiquement incorporés dans le produit ou ‘non intégrés’ s’ils servent la fonctionnalité du produit sans y être incorporés.

Définir les risques

Pour faciliter la libre circulation des produits sur le marché intérieur et garantir que seuls des produits sûrs soient mis sur le marché, il est important de prévenir et d’atténuer les risques pour la sécurité susceptibles d’être créés par un produit en raison de ses composants numériques (y compris les systèmes d’IA). Par exemple, les robots autonomes doivent pouvoir remplir leurs fonctions en toute sécurité dans des environnements complexes. De même, dans le secteur de la santé, les systèmes de diagnostic et les systèmes soutenant les décisions humaines doivent être fiables et précis.

Niveaux de risque

Le règlement établit certaines obligations pour les fournisseurs d'IA et réglementent l'autorisation des systèmes d'IA dans le marché unique de l'UE.
Quatre niveaux de risques associés aux utilisations de l'IA ont été fixés.

  • Risques minimes ou nuls: C’est le cas de la grande majorité des systèmes d'IA, qui ne sont pas affectés par la législation de l'UE sur l'IA.
  •  Risques limités: Les systèmes d'IA présentant des risques limités sont soumis à des obligations très légères (p.ex. mention du fait que leur contenu a été généré par l'IA).
  • Risques élevés: Les systèmes d'IA à haut risque sont soumis à un ensemble d'exigences et d'obligations pour accéder au marché de l'UE.
  • Risques inacceptables: si les risques liés à l’utilisation de l’IA sont jugés inacceptables, leur utilisation est interdite dans l'UE (voir encadré). 
     

Interdictions 

Le règlement sur l’IA interdit les systèmes d’IA: 

  • ayant recours à des techniques de manipulation du comportement humain 
  • exploitant les éventuelles vulnérabilités d’un individu (dues à l’âge ou au handicap) pour altérer substantiellement son comportement et de manière à causer un préjudice physique ou psychologique 
  • destinés à évaluer ou à établir un classement de la fiabilité de personnes en fonction de leur comportement social ou de caractéristiques personnelles et pouvant entraîner un traitement préjudiciable des personnes 
  • utilisant la reconnaissance des émotions sur le lieu de travail et les établissements d’enseignement (sauf pour des raisons médicales ou de sécurité) 
  • permettant l’identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives (sauf pour des raisons de sécurité: recherche de victimes de la criminalité, prévention d’une menace imminente pour la vie ou la sécurité des personnes ou d’une attaque terroriste, recherche d’auteurs des infractions pénales les plus graves).

Systèmes d’IA utilisés en tant que composants de sécurité

Les systèmes d’IA pourraient avoir un impact négatif sur la santé et la sécurité, en particulier lorsque ces systèmes sont utilisés en tant que composants de sécurité de produits.

Le règlement sur l’IA considère les systèmes d’IA utilisés en tant que composants de sécurité de produits comme étant à haut risque. Ces produits sont notamment les machines, les jouets, les ascenseurs, les appareils et les systèmes de protection destinés à être utilisés en atmosphères explosibles, les équipements radio, les équipements sous pression, les équipements pour bateaux de plaisance, les installations à câbles, les appareils brûlant des combustibles gazeux, les dispositifs médicaux, les dispositifs médicaux de diagnostic in vitro, l’automobile et l’aviation. 

Les systèmes d’IA à haut risque doivent porter le marquage CE afin qu’ils puissent circuler librement dans le marché intérieur. S’ils sont intégrés à un produit, le marquage CE peut être physique (éventuellement complété par un marquage CE numérique). Les systèmes d’IA à haut risque fournis uniquement sous forme numérique doivent avoir un marquage CE numérique.


Sources/plus d'info 

Choisissez votre formule

Actuellement, vous n'avez pas accès aux informations que vous recherchez. 
Veuillez choisir l'une de nos formules pour accéder aux informations demandées ou contactez-nous pour un devis.