Principes directeurs et code de conduite en matière d'intelligence artificielle

La Commission se félicite de l'accord intervenu ce 30 ocotobre entre les dirigeants du G7 portant sur des principes directeurs internationaux en matière d'intelligence artificielle (IA) et sur un code de conduite volontaire destiné aux développeurs d'IA dans le cadre du processus d'Hiroshima pour l'intelligence artificielle.


Ces principes et le code de conduite volontaire compléteront, au niveau international, les règles juridiquement contraignantes auxquelles les colégislateurs de l'UE mettent actuellement un point final dans le cadre de la législation de l'Union sur l'IA. La présidente de la Commission européenne, Ursula von der Leyen, était au nombre de ceux qui ont souscrit à la déclaration des dirigeants du G7, publiée par la présidence japonaise du G7 de 2023.

Le code de conduite international pour les organisations qui développent des systèmes d’IA avancés vise à promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier et fournira des orientations volontaires pour les actions des organisations qui développent les systèmes d’IA les plus avancés, y compris les modèles de base les plus avancés et les systèmes d’IA génératifs.

Les principes directeurs internationaux pour les organisations qui développent des systèmes d’IA avancés visent à promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier et fourniront des orientations aux organisations qui développent et utilisent les systèmes d’IA les plus avancés, y compris les modèles de base les plus avancés et les systèmes d’IA génératifs.




Veiller à la sécurité et à la fiabilité de la technologie

Les onze principes directeurs adoptés par les dirigeants des sept pays et de l'UE, qui forment le G7, fournissent des orientations aux organisations qui développent, déploient et utilisent des systèmes d'IA avancés, tels que des modèles de fondation et une IA générative, afin de promouvoir la sécurité et la fiabilité de la technologie. Ces principes directeurs comprennent des engagements visant à atténuer les risques et atténuer les utilisations abusives et à recenser les vulnérabilités, à encourager le partage responsable d'informations, le signalement d'incidents et les investissements dans la cybersécurité, ainsi qu'à mettre en place un système d'étiquetage permettant aux utilisateurs d'identifier les contenus générés par l'IA.

Étayés par les résultats d'une enquête auprès des parties prenantes, ces principes directeurs ont été mis au point conjointement par l'UE et les autres membres du G7, dans le cadre du processus d'Hiroshima sur l'intelligence artificielle. Les principes directeurs ont ensuite servi de base à l'élaboration d'un code de conduite, qui fournira des orientations pratiques et détaillées aux organisations qui développent l'IA. Le code de conduite volontaire promouvra également une gouvernance responsable de l'IA à l'échelle mondiale. Ces deux documents seront réexaminés et mis à jour si nécessaire y compris au moyen de consultations multipartites inclusives, pour garantir qu'ils restent adaptés à cette technologie en mutation rapide et soient aptes à faire face à ses évolutions. Les dirigeants du G7 ont invité les organisations qui développent des systèmes avancés d'IA à s'engager à appliquer le code de conduite international. Les premiers signataires seront annoncés dans un avenir proche.

Contexte

Le processus du G7 sur l'intelligence artificielle, dit «processus d'Hiroshima», a été mis en place le 19 mai 2023 afin de promouvoir des garde-fous pour les systèmes avancés d'IA au niveau mondial. Cette initiative s'inscrit dans le cadre d'un éventail plus large de discussions internationales sur les garde-fous en matière d'IA, notamment au sein de l'OCDE, du Partenariat mondial pour l'intelligence artificielle (PMIA) et dans le cadre du Conseil du commerce et des technologies (CCT) UE-États-Unis et des partenariats numériques de l'UE.

Depuis qu'elle a annoncé pour la première fois son intention d'élaborer un code de conduite lors de la réunion ministérielle du CCT du 31 mai 2023, la Commission européenne a œuvré activement avec les principaux partenaires internationaux au sein du G7 à la conception des principes et du code de conduite en matière d'IA. Ces engagements internationaux sont cohérents avec les règles juridiquement contraignantes, qui sont négociées à l'heure actuelle dans le cadre de la législation, plus exhaustive, sur l'intelligence artificielle (législation de l'Union sur l'IA), qui s'appliquera dans l'UE.

La proposition de législation de l'Union sur l'intelligence artificielle garantira la sécurité et les droits fondamentaux des citoyens et des entreprises, tout en renforçant l'investissement et l'innovation dans le domaine de l'IA, ainsi que l'utilisation de celle-ci, dans l'ensemble de l'UE. La législation sur l'IA prévoira des règles fondées sur les risques juridiquement contraignantes, applicables aux systèmes d'IA qui sont mis sur le marché ou mis en service sur le marché de l'Union.

Pour en savoir plus

Déclaration conjointe des dirigeants du G7

Principes directeurs internationaux du G7 en matière d'IA

Code de conduite international du G7 en matière d'AI

Proposition de législation européenne sur l'intelligence artificielle

Source : Commission Européenne, octobre 2023

Mots clés

Articles recommandés

L'UE mieux armée pour relever les défis liés à l'État de droit

Renouvellement des sanctions économiques UE pour six mois supplémentaires à l'encontre de la Russie

Changement climatique et stabilité financière de l'UE : mesurer les risques !