top of page

Le Parlement européen adopte l'IA Act, la 1ère régulation de l'U.E

Dernière mise à jour : 8 août 2023

Nouvelle étape dans le parcours législatif de l'IA Act avec l'adoption à l'unanimité ce mercredi du projet de loi visant à garantir que les intelligences artificielles développées et utilisées en Europe respecteront les droits et valeurs de l’UE, notamment sur la surveillance humaine, la sécurité, la protection de la vie privée, la transparence, la non-discrimination et le bien-être social et environnemental.


Régulation de l'IA au niveau européen


Pour rappel, en avril 2021, la Commission européenne a proposé le premier cadre de législation de l'UE pour l'IA. Il propose que des systèmes d'IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu'ils présentent pour les utilisateurs. Les différents niveaux de risque impliqueront plus ou moins de réglementation. Une fois approuvées, ces règles seront les premières au monde sur l'IA.


Le projet de loi adopté ce mercredi 14 juin 2023 par le Parlement européen met en place des obligations pour les fournisseurs et ceux déployant des systèmes d’IA, en fonction du niveau de risque.

Ainsi, les IA générant un risque « inacceptable » seront purement et simplement interdites. A l’image de celles utilisées en Chine, pour la notation sociale. Mais pas seulement.

Le parlement européen a dressé une liste des technologie à proscrire car jugées trop intrusives ou discriminatoires.

Par ailleurs, les systèmes d'IA devraient être supervisés par des personnes plutôt que par l'automatisation, afin d'éviter des résultats néfastes.

  • Risque inacceptable

Sont considérés comme inacceptables, les systèmes d'IA représentant une menace pour les personnes, et notamment, la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques; un score social permettant de classer les personnes en fonction de leur comportement, de leur statut socio-économique, de leurs caractéristiques personnelles; des systèmes d'identification biométrique en temps réel et à distance, tels que la reconnaissance faciale.

  • Risque élevé

Les systèmes d'IA qui ont un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque et seront divisés en deux catégories.

  1. Les systèmes d'IA qui sont utilisés dans les produits relevant de la législation de l'UE sur la sécurité des produits. Cela comprend les jouets, l'aviation, les voitures, les dispositifs médicaux et les ascenseurs.

  2. Les systèmes d'IA relevant de huit domaines spécifiques qui devront être enregistrés dans une base de données de l'UE :

• l'identification biométrique et la catégorisation des personnes physiques

• la gestion et l'exploitation des infrastructures critiques

• l'éducation et la formation professionnelle

• l'emploi, la gestion des travailleurs et l'accès au travail indépendant

• l'accès et la jouissance des services privés essentiels et des services et avantages publics

• les forces de l'ordre

• la gestion de la migration, de l'asile et du contrôle des frontières

• l'aide à l'interprétation juridique et à l'application de la loi.

Tous les systèmes d'IA à haut risque seront évalués avant leur mise sur le marché et tout au long de leur cycle de vie.


  • IA générative

L'IA générative, comme ChatGPT, devrait se conformer aux exigences de transparence :

• indiquer que le contenu a été généré par l'IA

• concevoir le modèle pour l'empêcher de générer du contenu illégal

• publier des résumés des données protégées par le droit d'auteur utilisées pour la formation

  • Risque limité

Les systèmes d'IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées.

Après avoir interagi avec les applications, l'utilisateur peut alors décider s'il souhaite continuer à l'utiliser. Les utilisateurs doivent être informés lorsqu'ils interagissent avec l'IA. Cela inclut les systèmes d'IA qui génèrent ou manipulent du contenu image, audio ou vidéo (par exemple, les deepfakes, des contenus faux qui sont rendus crédibles par l'IA).


Les pourparlers vont maintenant commencer avec les pays de l'UE au sein du Conseil sur la forme finale de la loi. L'objectif est de parvenir à un accord d'ici la fin de l'année.




47 vues
bottom of page