La loi européenne sur l'IA a créé quatre niveaux de risque différents pour caractériser l'utilisation des systèmes d'IA. Découvrez chacun de ces niveaux et l'impact qu'ils peuvent avoir sur l'utilisation de l'IA dans votre organisation.
La proposition de loi européenne sur l'IA adopte une approche globale de la réglementation de l'intelligence artificielle, établissant des obligations pour les fournisseurs et les déployeurs afin de garantir une utilisation sûre et éthique de la technologie de l'IA. Pour ce faire, l'UE a proposé le premier cadre réglementaire pour l'IA, y compris la catégorisation des niveaux de risque pour les différents systèmes.
Cette catégorie interdit les systèmes d'IA qui représentent une menace évidente pour la sécurité ou les droits de l'homme. Par exemple, les jouets dotés d'une assistance vocale qui encouragent les comportements dangereux ou l'évaluation sociale par les gouvernements qui pourrait conduire à la discrimination sont considérés comme inacceptables.
.Le projet de loi européenne sur l'IA considère que les systèmes d'IA qui constituent une menace pour la sécurité humaine ou les droits fondamentaux présentent un risque élevé. Il peut s'agir de systèmes utilisés dans les jouets, l'aviation, les voitures, les appareils médicaux et les ascenseurs, autant de produits qui relèvent de la réglementation européenne en matière de sécurité des produits.
Les systèmes à haut risque peuvent également inclure des infrastructures critiques (comme les systèmes de transport) où un dysfonctionnement pourrait mettre des vies en danger. Outre la sécurité physique, ces niveaux de risque sont également conçus pour contribuer à la protection des droits de l'homme et de la qualité de vie. Par exemple, la notation d'examens ou le tri de CV par l'IA sont considérés comme des systèmes à haut risque, car ils peuvent avoir une incidence sur la carrière et l'avenir d'une personne.
Diverses activités d'application de la loi sont également considérées comme à haut risque, comme l'évaluation de la fiabilité des preuves, la vérification des documents de voyage au contrôle de l'immigration et l'identification biométrique à distance.
Ce niveau vise les systèmes d'IA ayant des besoins de transparence spécifiques, comme l'utilisation d'un chatbot pour le service à la clientèle. Vos utilisateurs doivent savoir qu'ils interagissent avec une machine et avoir la possibilité de se retirer et de parler à un humain à la place. Les systèmes à risque limité reposent sur la transparence et le consentement éclairé de l'utilisateur, ainsi que sur la possibilité de se retirer facilement.
Le risque minimal est le niveau de risque le plus bas défini dans la loi sur l'IA et se réfère à des applications telles que les jeux vidéo ou les filtres anti-spam alimentés par l'IA
Récemment, le Parlement européen a introduit des amendements qui traitent de l'IA générative et imposent des règles de transparence supplémentaires pour son utilisation. Les négociations entre le Parlement européen, le Conseil et la Commission se sont également concentrées sur la hiérarchisation des modèles de base, et nous pourrions donc assister à des clarifications supplémentaires concernant leur utilisation.
Les outils d'IA tels que les chatbots soutenus par de grands modèles de langage (pensez à ChatGPT) pourraient devoir respecter des règles supplémentaires, comme révéler que le contenu a été produit à l'aide de l'IA, garantir que le modèle ne crée pas de contenu illégal et publier des résumés des données protégées par le droit d'auteur utilisées pour l'entraînement.
.C'est une chose de voir les niveaux de risque de la loi européenne sur l'IA, mais c'en est une autre de comprendre comment ils s'intègrent dans les activités quotidiennes de votre entreprise.
.Les systèmes à risque inacceptable, comme leur nom l'indique, sont interdits par la loi sur l'IA et ne peuvent donc être utilisés par aucun membre de votre organisation. Un outil comme OneTrust AI Governance signalera et rejettera automatiquement tout système classé dans ce niveau de risque, protégeant ainsi votre organisation et libérant le temps de votre équipe pour d'autres examens.
À l'autre extrémité du spectre des risques, les systèmes à risque limité et minimal peuvent être automatiquement approuvés par votre outil de gouvernance de l'IA, ce qui permet à votre équipe élargie d'avancer dans son projet et de continuer à innover avec l'IA.
Dans ces deux cas de risque, la décision d'approuver ou de refuser l'utilisation du système peut être prise automatiquement par votre outil, car les lignes directrices sont claires dans les deux cas. Les choses sont moins claires lorsqu'il s'agit de systèmes à haut risque.
Les systèmes considérés comme présentant un risque élevé ne sont pas automatiquement interdits en vertu du projet de loi sur l'IA de l'UE, mais ils doivent répondre à des exigences supplémentaires avant de pouvoir être déployés. Ces exigences démontrent que la technologie et son utilisation ne constituent pas une menace significative pour la santé, la sécurité et les droits de l'homme fondamentaux.
Les développeurs de systèmes d'IA déterminent eux-mêmes la catégorie de risque de leur système à l'aide des normes établies par l'UE. Une fois que les systèmes à haut risque sont utilisés, les déployeurs ont des responsabilités en matière de conformité, de contrôle, de surveillance humaine et de transparence dès qu'ils décident d'utiliser un système à haut risque.
Cette conformité et cette surveillance continues peuvent nécessiter beaucoup de travail manuel, c'est pourquoi trouver des moyens d'automatiser ces examens fera gagner beaucoup de temps à votre équipe. OneTrust signale les systèmes à haut risque pour un examen manuel, de sorte qu'ils ne sont pas automatiquement rejetés, mais votre équipe de conformité doit prendre le temps de faire preuve de diligence raisonnable pour décider si l'utilisation du système - et la prise en charge de la responsabilité opérationnelle supplémentaire - en vaut la peine, ou s'il serait préférable d'opter pour un autre système à la place.
Pour voir comment un projet réel peut avancer en utilisant un système d'IA et un outil de gouvernance de l'IA, voici un exemple pratique.
Supposons que votre équipe marketing veuille utiliser le GPT-4 d'OpenAI pour créer des courriels marketing personnalisés. Il s'agit de la phase d'initialisation du projet, au cours de laquelle une équipe identifie un cas d'utilisation pour un système d'IA et doit le faire approuver.
Votre équipe de conformité devra ensuite procéder à une évaluation pour déterminer si le système a du sens et peut être utilisé en toute sécurité. OneTrust propose ces évaluations accessibles et concises, où le propriétaire du projet peut exposer ses objectifs et ses intentions.
À partir de là, le projet doit être classé dans une catégorie de risque. OneTrust automatise ce processus en évaluant le projet et en lui attribuant automatiquement un niveau de risque, comme expliqué ci-dessus.
En fonction du niveau de risque attribué, votre équipe peut alors accélérer le déploiement de son projet. Dans ce cas, l'utilisation de GPT-4 a été jugée à faible risque par l'outil de gouvernance de l'IA et est automatiquement approuvée pour que l'équipe marketing puisse aller de l'avant avec son projet.
La solution OneTrust AI Governance offre plus qu'une simple conformité à la loi européenne sur l'IA. Il s'agit d'une solution complète pour superviser les activités d'IA au sein de votre organisation.
Nous vous aidons à innover plus rapidement sans négliger la sécurité, que vous soyez confronté aux réglementations de l'UE ou à d'autres défis de gouvernance.
Webinaire
Un webinar exclusif pour explorer les implications de la loi européenne sur l'IA et découvrir la solution AI Governance.
Blog
Le projet de loi de l’UE sur l’IA adopte une approche de précaution, basée sur les risques en matière d’IA et, pour ce faire, a défini quatre catégories de risques différentes dans lesquelles les systèmes d’IA peuvent être classés.