• FR
  • NL
  • EN

L'OCDE met en lumière l'essor de la transparence chez les leaders de l'IA

Des développeurs d’IA de premier plan prennent des mesures importantes pour rendre leurs systèmes plus robustes et sûrs, selon un nouveau rapport de l’OCDE.

Perset, K. and S. Fialho Esposito (2025), “How are AI developers managing risks?: Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct”, OECD Artificial Intelligence Papers, No. 45, OECD Publishing, Paris, https://doi.org/10.1787/658c2ad6-en.

L’étude How are AI developers managing risks? Insights from responses to the reporting framework of the Hiroshima AI Process Code of Conduct (disponible en anglais uniquement) analyse les rapports de transparence volontaires publiés dans le cadre du Processus d’Hiroshima sur l’IA par des entreprises de technologies et de télécommunications, ainsi que par des établissements de conseil, de recherche et d’enseignement, dont Anthropic, Google, Microsoft, NTT, OpenAI, Salesforce et Fujitsu.

L’analyse révèle que de nombreuses organisations mettent au point des méthodes de plus en plus perfectionnées pour évaluer et limiter les risques, notamment des tests d’équipe rouge et des outils fondés sur l’IA, afin de mieux comprendre le comportement des modèles et d’améliorer la fiabilité des systèmes. Les grandes entreprises technologiques disposent souvent de pratiques plus évoluées, en particulier pour ce qui est de l’évaluation des risques systémiques et sociétaux.

Il en ressort également que les principaux acteurs de l’IA sont de plus en plus conscients de l’importance du partage d’information sur la gestion des risques dans le but de renforcer la confiance, de favoriser l’apprentissage mutuel et de créer des environnements plus prévisibles pour l’innovation et l’investissement. Néanmoins, au-delà de certaines grandes entreprises, le recours aux outils techniques de traçabilité tels que les tatouages numériques, les signatures cryptographiques et les métadonnées d’authentification des contenus reste limité.

« L’amélioration de la transparence est essentielle pour renforcer la confiance dans l’intelligence artificielle et en accélérer l’adoption. En proposant des points de référence communs, les rapports de transparence volontaires peuvent contribuer à diffuser les bonnes pratiques, réduire la fragmentation réglementaire et favoriser l’adoption de l’IA à l’échelle de l’économie, y compris au sein des petites entreprises », a déclaré Jerry Sheehan, Directeur de la Direction de la science, de la technologie et de l’innovation de l’OCDE.

« À l’heure de définir des attentes communes en matière de transparence, le cadre d’établissement des rapports au titre du Processus d’Hiroshima sur l’IA peut jouer un rôle précieux en permettant de rationaliser l’exercice. À l’avenir, il pourrait également aider les organisations à satisfaire aux nouvelles exigences en matière d’établissement de rapports, à mesure que les technologies d’IA et les pratiques de gouvernance y afférentes continueront d’évoluer. » Amanda Craig, directrice principale des politiques publiques en matière d'IA responsable, Microsoft.

Le cadre de l’OCDE relatif à l’établissement des rapports de transparence volontaires, mis au point sous la présidence italienne du G7 en 2024, avec le concours de représentants d’entreprises, du monde universitaire et de la société civile, jette les bases de l’adoption d’approches coordonnées à l’appui d’une IA sûre, sécurisée et digne de confiance. Il aide à la mise en œuvre du Processus d’Hiroshima sur l’IA, lancé sous la présidence japonaise du G7 en 2023.

Le rapport How AI developers are managing risks: preliminary insights from the Hiroshima AI process reporting framework est consultable ici.

Photo : OCDE, How are AI developers managing risks


Mots clés

Articles recommandés

Conseils indispensables pour des négociations budgétaires réussies

Pilier 2: bâti pour durer ou destiné à se fissurer ?

Comment propulser la recherche et l'innovation pour les start-up et les scale-up vers de nouveaux sommets ?