Passer au contenu

IA : comment l'UE veut favoriser l'innovation et limiter les risques

Par
  • France Bleu

La législation européenne sur l'intelligence artificielle (IA), approuvée mercredi par les eurodéputés, ambitionne de favoriser l'innovation dans l'UE tout en limitant les risques de dérives liés à ces technologies. France Bleu fait le point.

Le Parlement européen a adopté une législation unique pour encadrer l'utilisation de l'IA, le 13 mars 2024. Le Parlement européen a adopté une législation unique pour encadrer l'utilisation de l'IA, le 13 mars 2024.
Le Parlement européen a adopté une législation unique pour encadrer l'utilisation de l'IA, le 13 mars 2024. © AFP - Riccardo Milani / Hans Lucas

C’est la première loi contraignante au monde sur l’intelligence artificielle (IA). Le Parlement européen a adopté ce mercredi des règles pour encadrer l’utilisation de cette technologie. Le texte, qui vise à protéger les droits et la sécurité, tout en soutenant l’innovation, a été voté à une très large majorité par les eurodéputés réunis en session plénière, par 523 voix pour et 46 voix contre.

Sur le réseau social X, le commissaire européen chargé du dossier, Thierry Breton, s’est félicité du "soutien massif"  du Parlement à ce texte qui établit les "premières règles contraignantes et complètes au monde pour une IA fiable".

Ce projet de loi avait été présenté par la Commission européenne en avril 2021. L'apparition fin 2022 de ChatGPT de la start-up californienne OpenAI, capable de rédiger des dissertations, poèmes ou traductions en quelques secondes, lui a donné une nouvelle dimension. Ce système a révélé l'énorme potentiel de l'IA, mais aussi ses risques. La diffusion de fausses photos ou vidéos, plus vraies que nature, a ainsi alerté sur le danger de manipulation de l'opinion. L'année dernière, la Chine et les États-Unis ont introduit des règles sur l'intelligence artificielle, mais la législation européenne est la plus complète.

Sa mise en application sera échelonnée dans le temps. L'interdiction des systèmes considérés comme les plus dangereux entrera en vigueur dans le courant de l'année, tandis que les règles relatives aux systèmes tels ChatGPT s'appliqueront dans un an. Les autres dispositions s'appliqueront à partir de 2026.

Une approche à deux niveaux

La législation prévoit une approche à deux niveaux qui distingue les modèles d'IA à "usage général" et les systèmes considérés à "haut risque".

  • Modèles d'IA à "usage général"

Les modèles d'IA à "usage général", c'est-à-dire capables de réaliser un très grand nombre de tâches différentes (à l'image des robots conversationnels) seront soumis à des règles spécifiques.

Les développeurs de ces modèles devront fournir des informations détaillées sur les contenus qu'ils ont utilisés, textes ou images notamment, pour "entraîner" leurs systèmes. Ils devront en outre respecter la législation européenne en matière de droits d'auteur.

Les exigences seront plus strictes pour les modèles les plus puissants qui, selon l'UE, présentent un  "risque systémique", comme ChatGPT ou Gemini de Google. Les entreprises qui proposent ces technologies devront en évaluer et atténuer les risques, suivre et signaler à la Commission les incidents graves, offrir des garanties en matière de cybersécurité et fournir des informations sur la consommation d'énergie de leurs modèles.

  • Modèles d'IA à "haut risque"

Pour les systèmes considérés à "haut risque" - utilisés par exemple dans les infrastructures critiques comme l'éducation, les ressources humaines, le maintien de l'ordre -, des obligations contraignantes seront imposées aux entreprises qui les développent.

Elles devront par exemple prévoir une analyse d'impact obligatoire sur les droits fondamentaux, s'assurer qu'ils ont développé leurs systèmes avec des données de qualité, prévoir une surveillance humaine sur la machine, fournir une documentation technique solide et mettre en place un système de gestion des risques.

Les images, textes ou vidéos générés artificiellement ("deep fakes") devront être clairement identifiés comme tels. La législation contraindra les systèmes d'IA qui interagissent avec les humains à informer l'utilisateur qu'il est en relation avec une machine.

Le texte interdit les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine, ou encore l'identification biométrique à distance des personnes dans les lieux publics. Sur ce dernier point, les États ont toutefois obtenu des exemptions pour certaines missions des forces de l'ordre, comme la prévention d'une menace terroriste ou la recherche ciblée de victimes.

Les organismes publics devront enfin enregistrer les systèmes d'IA à haut risque qu'ils déploient dans une base de données publique de l'UE et la législation européenne sera dotée de moyens de surveillance et de sanctions avec la création d'un office européen de l'IA, au sein de la Commission européenne. Il pourra infliger des amendes allant de 7,5 à 35 millions d'euros, en fonction de l'infraction et de la taille de l'entreprise. "Nous réglementons le moins possible, mais autant que nécessaire", a résumé Thierry Breton.

Interdictions

Certains types d'IA seront interdits dans l'UE parce que jugés contraires aux valeurs européennes. Il s'agit notamment des systèmes de reconnaissance des émotions sur le lieu de travail ou dans les écoles, des systèmes de notation sociale qui évaluent les individus en fonction de leur comportement.

La loi interdit également le recours aux technologies de reconnaissance faciale en temps réel, mais des exemptions sont prévues pour les forces de l'ordre dans le cadre de la lutte contre le terrorisme ou pour enquêter sur un crime grave. Elles pourront également demander à utiliser cette technologie pour retrouver des victimes d'enlèvement, sous réserve de l'approbation d'une autre autorité judiciaire, dans un espace et pour une durée limités.

Ma France : Améliorer le logement des Français

Quelles sont vos solutions pour aider les Français à bien se loger ? En partenariat avec Make.org, France Bleu mène une consultation citoyenne à laquelle vous pouvez participer ci-dessous.

L'info en continu

undefined