Depuis plusieurs années, l’Union européenne débat à propos de la mise en place d’un cadre juridique européen autour de l’intelligence artificielle (IA) : l’« IA Act ». Son adoption définitive est proche. Point d’étape…
Intelligence artificielle : l’IA Act arrive !
En décembre 2023, les États membres de l’Union européenne (UE) se sont mis d’accord sur le contenu de l’IA Act, texte destiné à encadrer l’intelligence artificielle (IA) en son sein.
Ce texte prévoit d’interdire l’usage de l’IA dans certaines situations : ce sera le cas, par exemple, de la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, de la notation sociale, de la police prédictive (lorsqu’elle est basée uniquement sur le profilage d’une personne ou sur l’évaluation de ses caractéristiques) ou encore de la manipulation du comportement humain ou de l’exploitation des vulnérabilités des personnes.
Notez que si l’utilisation des systèmes d’identification biométrique par les services répressifs est en principe interdite, des exceptions ont toutefois été mises en place.
Ainsi, des systèmes d’identification biométrique « en temps réel » pourront être déployés à condition que des garanties strictes soient respectées. Leur utilisation sera, par exemple, limitée dans le temps et dans l’espace, et soumise à une autorisation judiciaire ou administrative préalable spécifique.
Après les catégories d’IA interdites, vient la catégorie des IA à haut risque (en raison du préjudice potentiel qu’elles peuvent représenter pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit).
Parmi les domaines d’utilisation à haut risque de l’IA, il est possible de citer les infrastructures critiques, l’éducation et la formation professionnelle, l’emploi, les services privés et publics essentiels (par exemple, les soins de santé et les banques), etc.
Pour ces IA, une évaluation et une réduction des risques devront avoir lieu, et elles devront être accompagnées de registres d’utilisation. Des obligations de transparence devront être respectées et une supervision humaine sera obligatoire. Les citoyens pourront déposer une plainte et recevoir des explications sur les décisions basées sur ces IA à haut risque lorsqu’elles auront une incidence sur leurs droits.
Une autre catégorie d’IA sont les IA à usage général (connues sous le nom « d’IA génératives ») : elles devront respecter des exigences de transparence et la réglementation sur les droits d’auteurs. Des résumés détaillés des contenus utilisés pour leur entraînement devront être publiés.
Notez que les IA à usage général les plus puissantes devront respecter des exigences supplémentaires. Par exemple, des évaluations de modèles devront être effectuées, les risques systémiques devront être évalués et atténués et les incidents devront être signalés.
De plus, les images et les contenus audio et vidéo artificiels ou manipulés (« deep fakes ») devront être clairement signalés comme tels.
Par ailleurs, sachez que des « bacs à sable réglementaires » vont voir le jour pour soutenir l’innovation. Pour rappel, ce dispositif permet aux acteurs de tester leur technologie ou service innovant sans devoir nécessairement respecter l’ensemble du cadre réglementaire qui devrait normalement s’appliquer.
Notez que l’IA Act sera définitivement adopté avant la fin de la législature européenne actuelle (les prochaines élections étant fixées au 9 juin 2024).
Il entrera en vigueur 20 jours après sa publication au Journal officiel et sera pleinement applicable 24 mois après son entrée en vigueur, à l’exception :
- des dispositions relatives aux pratiques interdites, qui s’appliqueront 6 mois après la date d’entrée en vigueur ;
- des codes de pratique, qui s’appliqueront 9 mois après l’entrée en vigueur ;
- des règles concernant l’IA à usage général, qui s’appliqueront 12 mois après l’entrée en vigueur ;
- des obligations pour les systèmes à haut risque qui s’appliqueront 36 mois après l’entrée en vigueur.
Affaire à suivre…
IA Act : une nouvelle étape est passée… – © Copyright WebLex
Comments are closed.