La première législation européenne sur l’intelligence artificielle offre une protection supplémentaire aux consommateurs face aux algorithmes.
Cette chronique partenaire est proposée par Julie Guenand, avocate, spécialiste de l’éthique des affaires et de la défense pénale.
L’Union Européenne a franchi un pas décisif dans la réglementation de l’intelligence artificielle avec l’introduction du règlement sur l’intelligence artificielle (IA Act) et notamment un accord provisoire pris le 8 décembre 2023 pour un vote en 2024.
Cette législation, proposée par la Commission européenne en 2021, est le premier cadre juridique global visant à réguler spécifiquement les applications de l’IA.
Elle établit un cadre réglementaire strict pour l’intelligence artificielle, axé sur la protection des consommateurs.
En classifiant les systèmes d’IA selon leur niveau de risque, l’IA Act impose des normes rigoureuses pour ceux à haut risque, tout en interdisant les pratiques d’IA jugées manipulatrices.
Avec des sanctions importantes pour les entreprises non conformes, ce règlement représente un engagement significatif de l’UE envers un développement éthique et responsable de l’IA, en harmonie avec les stratégies nationales comme celle de la France.
Des impératifs éthiques et de sécurité
L’IA Act repose sur une approche axée sur le risque, classifiant les systèmes d’IA selon leur potentiel de dangerosité.
Les systèmes à risque minimal sont soumis à des exigences de transparence, tandis que ceux considérés à haut risque doivent respecter des normes strictes en matière de sécurité, de respect des droits fondamentaux et de protection de la vie privée.
Cette classification vise à équilibrer l’innovation technologique avec les impératifs éthiques et de sécurité.
Le règlement établit clairement les pratiques interdites pour les systèmes d’IA.
Parmi ces interdictions, se retrouvent les IA conçues pour manipuler le comportement humain de manière subliminale ou les systèmes exploitant les faiblesses des personnes vulnérables.
Transparence et information
De même, les applications d’IA qui permettent une surveillance de masse ou une notation sociale, à l’instar de certains modèles mis en place en Chine, sont également interdites.
Un point central de l’IA Act est la protection du consommateur.
Les systèmes d’IA à haut risque, tels que ceux utilisés dans les domaines de la santé, des transports ou de la justice, doivent garantir un haut niveau de fiabilité, de sécurité et de respect des droits de l’homme.
Le règlement prévoit des mécanismes de contrôle et d’audit rigoureux pour ces systèmes, ainsi que des obligations de transparence et d’information pour les utilisateurs.
Les sanctions en cas de non-conformité sont significatives, reflétant la détermination de l’UE à assurer une application stricte de ces normes.
Des amendes dissuasives
Les entreprises peuvent se voir infliger des amendes allant jusqu’à 6 % de leur chiffre d’affaires mondial annuel, ce qui représente une mesure dissuasive majeure.
La mise en œuvre de l’IA Act est assurée par une gouvernance européenne solide.
Les autorités nationales de surveillance du marché jouent un rôle crucial dans le contrôle de la conformité, tandis que le nouveau bureau européen de l’IA coordonne les efforts à l’échelle de l’Union.
La France, en tant que membre clé de l’UE, aligne sa stratégie nationale sur l’IA avec les objectifs’ de l’IA Act.
Avec des initiatives telles que le comité français sur l’IA et le Sommet sur la sécurité de l’IA, l’Hexagone renforce sa position en tant que leader dans la régulation et l’innovation en matière d’IA.
En établissant un cadre juridique clair et rigoureux pour l’utilisation de l’IA, l’Union Européenne se positionne à l’avant-garde de la régulation technologique, assurant ainsi un développement responsable et sécurisé de l’intelligence artificielle.