L’initiative du G7 sur l’IA
Le processus d’intelligence artificielle du G7 à Hiroshima , établi lors du sommet du G7 en mai 2023, a constitué une mesure décisive pour répondre au besoin croissant de lignes directrices en matière d’IA à l’échelle mondiale. De cette initiative sont nés les principes directeurs et le code de conduite, visant à promouvoir la sécurité, la fiabilité ainsi que le développement et l’utilisation responsables des technologies d’IA à l’échelle mondiale. Mais qu’est-ce que cela signifie pour les organisations qui se lancent dans l’IA ? Et comment ces lignes directrices façonnent-elles le futur paysage du développement et du déploiement de l’IA ?
Naviguer à la frontière de l’IA : le code de conduite du G7
À mesure que les technologies de l’IA progressent, le G7 a méticuleusement dressé une liste de directives pour garantir que l’évolution de l’IA soit responsable, sûre et conforme aux normes les plus élevées. Cette liste sert de modèle complet pour toute organisation qui se lance dans les systèmes d’IA avancés :
1. Prendre les mesures appropriées tout au long du développement des systèmes d’IA avancés, y compris avant et tout au long de leur déploiement et de leur mise sur le marché, pour identifier, évaluer et atténuer les risques tout au long du cycle de vie de l’IA.
2. Identifier et atténuer les vulnérabilités et, le cas échéant, les incidents et les schémas d’utilisation abusive, après le déploiement, y compris la mise sur le marché.
3. Signaler publiquement les capacités, les limites et les domaines d’utilisation appropriée et inappropriée des systèmes d’IA avancés, afin de garantir une transparence suffisante, contribuant ainsi à une responsabilité accrue.
4. Travailler à un partage responsable des informations et à la déclaration des incidents entre les organisations développant des systèmes d’IA avancés, notamment avec l’industrie, les gouvernements, la société civile et le monde universitaire.
5. Élaborer, mettre en œuvre et divulguer des politiques de gouvernance et de gestion des risques en matière d’IA, fondées sur une approche basée sur les risques – y compris des politiques de confidentialité et des mesures d’atténuation.
6. Investissez et mettez en œuvre des contrôles de sécurité robustes, notamment des mesures de sécurité physique, de cybersécurité et de protection contre les menaces internes tout au long du cycle de vie de l’IA.
7. Développer et déployer des mécanismes fiables d’authentification et de provenance du contenu, lorsque cela est techniquement possible, tels que le filigrane ou d’autres techniques pour permettre aux utilisateurs d’identifier le contenu généré par l’IA.
8. Donner la priorité à la recherche pour atténuer les risques sociétaux, de sûreté et de sécurité, et donner la priorité aux investissements dans des mesures d’atténuation efficaces.
9. Donner la priorité au développement de systèmes d’IA avancés pour relever les plus grands défis mondiaux, notamment, mais sans s’y limiter, la crise climatique, la santé mondiale et l’éducation.
10. Promouvoir l’élaboration et, le cas échéant, l’adoption de normes techniques internationales.
11. Mettre en œuvre des mesures appropriées de saisie des données et des protections pour les données personnelles et la propriété intellectuelle.
Cette liste exhaustive souligne non seulement la minutie avec laquelle le G7 aborde l’IA, mais éclaire également la voie à suivre pour les organisations, en veillant à ce qu’elles exploitent le potentiel de l’IA de manière éthique et responsable, en plaçant le bien-être de la société au premier plan.
Qu’est-ce que cela signifie pour votre entreprise ?
La décision du G7 n’est pas simplement symbolique. Bien que le Code reste volontaire, son approbation par les dirigeants du G7 lui confère un poids considérable, incitant les organisations à s’engager envers ses principes et ses actions. Alors que des lois globales sur l’IA sont encore en débat, comme le projet de loi de l’UE sur l’IA, le Code servira de pont pour ce qui est à venir.
Les entreprises qui disposent déjà de systèmes d’IA ou qui envisagent d’introduire l’IA dans leurs cas d’utilisation métier peuvent considérer ces principes comme une étoile polaire lorsqu’elles abordent les processus d’IA.
Comment OneTrust peut-il vous aider ?
Lorsqu’il s’agit de vos données et de l’IA, la préoccupation la plus importante est de comprendre où se trouvent vos données et comment les modèles d’IA les affectent. Avec OneTrust AI Governance, vous pouvez gérer votre inventaire de technologies d’IA dans toute votre entreprise afin de savoir exactement où vos données touchent les systèmes d’IA.
Vous pouvez également vous assurer que vos modèles d’IA sont testés pour détecter tout biais et maintenir la transparence avec les cadres et réglementations à travers le monde. Pour chaque cas d’utilisation de l’IA qui se présente à votre entreprise, OneTrust vous permet de disposer d’un mécanisme de gouvernance approprié pour évaluer les risques tout au long du processus.