Intelligence artificielle : compromis au Parlement européen

Les deux commissions du Parlement européen ont adopté ce 11 mai un compromis sur de nouvelles règles de transparence et de gestion des risques pour les systèmes d’intelligence artificielle (IA).

Objectif : assurer un développement centré sur l’humain et l’éthique. Les parlementaires ont revu la définition de l’IA de façon à renforcer la neutralité technologique.

Ce jeudi 11 mai, au Parlement européen, la Commission du marché intérieur et la Commission des libertés civiles ont adopté un compromis sur le nouveau cadre juridique pour l’intelligence artificielle (IA).

Le débat en plénière est prévu pour mi-juin, mais ce compromis au sein des deux commissions concernées est une avancée majeure.

Plusieurs amendements ont été apportés à la proposition de la Commission, notamment pour garantir que les systèmes d’IA soient contrôlables par des humains, qu’ils soient plus sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement.

IA interdites

Les règles suivent une approche basée sur les risques et établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque que l’IA peut générer.

Les systèmes d’IA présentant un niveau de risque inacceptable pour la sécurité des personnes seraient strictement interdits, y compris les systèmes qui utilisent des techniques subliminales ou intentionnellement manipulatrices, qui exploitent les vulnérabilités des personnes ou qui sont utilisés pour le score social (classification des personnes en fonction de leur comportement social, de leur statut socio-économique, de leurs caractéristiques personnelles).

Les députés ont modifié la liste pour inclure des interdictions d’utilisations intrusives et discriminatoires des systèmes d’IA, telles que :

  • Les systèmes d’identification biométrique en temps réel dans les espaces accessibles au public ;
  • Les systèmes d’identification biométrique à posteriori, à l’exception de l’application de la loi pour la poursuite de crimes graves et uniquement après autorisation judiciaire ;
  • Les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple, le genre, la race, l’ethnicité, la citoyenneté, la religion, l’orientation politique) ;
  • Les systèmes de police prédictive (basés sur le profilage, la localisation ou les antécédents criminels) ;
  • Les systèmes de reconnaissance des émotions dans les forces de l’ordre, la gestion des frontières, le milieu professionnel et les établissements d’enseignement ;
  • Le grattage indiscriminé de données biométriques à partir des réseaux sociaux ou des images de vidéosurveillance pour créer des bases de données de reconnaissance faciale (violant les droits de l’homme et le droit à la vie privée). Le mot « grattage » utilisé dans le contexte de « grattage de données » fait référence à l’action de collecter ou d’extraire des informations à partir de sources de données, souvent de manière automatique ou semi-automatique. Par exemple, la collecte indiscriminée de données biométriques à partir de réseaux sociaux ou d’images de vidéosurveillance pour créer des bases de données de reconnaissance faciale.

Les IA fondatrices

Les députés ont inclus des obligations pour les fournisseurs de modèles fondamentaux, qui représentent un développement nouveau et en rapide évolution dans le domaine de l’IA. Ces fournisseurs devraient garantir une protection solide des droits fondamentaux, de la santé et de la sécurité, de l’environnement, de la démocratie et de l’État de droit. Ils devront évaluer et atténuer les risques, se conformer aux exigences de conception, d’information et d’environnement, et s’inscrire dans la base de données de l’UE.

Un fournisseur de modèle fondamental en IA est une entité ou une organisation qui fournit des modèles d’intelligence artificielle qui servent de base ou de référence pour le développement d’autres systèmes d’IA. Ces modèles fondamentaux sont des structures ou des architectures d’IA pré-entraînées qui peuvent être utilisées comme point de départ pour la création de nouveaux systèmes d’IA ou pour améliorer les performances d’applications existantes.

Les fournisseurs de modèles fondamentaux jouent un rôle clé dans le domaine de l’IA en fournissant des outils et des ressources aux développeurs et aux utilisateurs d’IA. Ils peuvent être des entreprises, des instituts de recherche, des organisations gouvernementales ou toute autre entité spécialisée dans le développement et la fourniture de ces modèles.

Dans le contexte du texte mentionné, les fournisseurs de modèles fondamentaux sont soumis à des obligations spécifiques afin de garantir une protection robuste des droits fondamentaux, de la santé et de la sécurité, de l’environnement, de la démocratie et de l’État de droit. Cela comprend l’évaluation et la gestion des risques, la conformité aux exigences de conception, d’information et d’environnement, ainsi que l’inscription dans une base de données de l’Union européenne pour assurer la transparence et la traçabilité des modèles fournis.

Les modèles fondamentaux générateurs

Les modèles fondamentaux générateurs devront également se conformer à des exigences supplémentaires en matière de transparence. Cela inclut la divulgation du fait que le contenu a été généré par une IA, la conception du modèle pour empêcher la génération de contenu illégal et la publication de résumés des données protégées par des droits d’auteur utilisées pour l’entraînement.

Un modèle fondamental générateur fait référence à un type spécifique de modèle d’intelligence artificielle qui est capable de générer du contenu de manière autonome. Contrairement à d’autres modèles qui peuvent être utilisés pour effectuer des tâches spécifiques telles que la classification d’images ou la reconnaissance vocale, les modèles fondamentaux générateurs ont la capacité de produire de nouvelles informations, textes, images ou autres types de contenus en utilisant des techniques d’apprentissage automatique.

Un exemple courant de modèle fondamental générateur est le modèle GPT (Generative Pre-trained Transformer). Ces modèles sont pré-entraînés sur de vastes ensembles de données pour apprendre les structures et les relations entre les différents éléments du contenu. Ils peuvent ensuite être utilisés pour générer du contenu cohérent et réaliste en fonction des modèles appris pendant l’entraînement.

Dans le contexte du texte mentionné, les modèles fondamentaux générateurs tels que GPT doivent se conformer à des exigences supplémentaires en matière de transparence. Cela inclut la divulgation claire du fait que le contenu est généré par une intelligence artificielle, la conception du modèle de manière à empêcher la génération de contenu illégal et la publication de résumés des données protégées par des droits d’auteur utilisées pour l’entraînement, afin d’assurer une utilisation responsable et transparente de ces modèles générateurs.

Plus d’infos

En lisant le texte du compromis, disponible en annexe.


Source : Droits et technologies, mai 2023


Apps, Cloud & DigitalF.F.F.Un pas de plus vers les premières règles sur l’intelligence artificielle

Mots clés