Stratégie et perspectives

Meilleures pratiques mondiales pour une innovation responsable en matière d’IA et des frameworks de gouvernance de l’IA

A woman with dark hair and glasses sits at a desk using a laptop, with a graphic of web-like connected dots overlaying the image on the right side

Face à la vitesse effrénée des progrès de l’IA, les dernières innovations dépassent inévitablement les capacités des gouvernements mondiaux à en réglementer l’utilisation. Lorsque les réglementations peinent à suivre, les technologies d’IA non contrôlées risquent d’enfreindre les libertés et droits fondamentaux. Voici quelques-uns des risques les plus urgents :

  • La confidentialité des données : les systèmes d’IA peuvent traiter d’énormes quantités de données personnelles, ce qui soulève des inquiétudes quant à la façon dont ces données sont utilisées et protégées.

  • Le biais : les algorithmes d’IA peuvent, par inadvertance, perpétuer les biais présents dans les données d’entraînement, créant des « prisons d’algorithmes », c’est-à-dire des situations où des individus ou des systèmes se retrouvent piégés ou contraints par les décisions générées par les algorithmes, souvent sans être en mesure de comprendre ou de contester ces résultats.

  • L’autonomie : les systèmes d’IA utilisés dans les processus de prise de décision peuvent potentiellement nuire à l’autonomie individuelle s’ils ne sont pas correctement conçus.

Plutôt que d’adopter une approche réactive pour aborder les nouvelles technologies au cas par cas, les gouvernements du monde entier développent des frameworks de gouvernance de l’IA qui cherchent activement des moyens de répondre à ces défis. Lorsque de tels frameworks font défaut ou doivent être développés, ces gouvernements fixent d’abord les principes de l’IA. En établissant des exigences et des protocoles de référence pour soutenir la sûreté, la sécurité, l’équité et la transparence des technologies d’IA, ces frameworks visent à créer un environnement qui favorisera l’innovation responsable et sûre en matière d’IA, tout en restant au fait des dernières évolutions.

Dans cet article, nous nous penchons sur l’évolution de la gouvernance de l’IA et découvrons comment différents gouvernements du monde entier affrontent ces défis.

La loi sur l’IA de l’Union européenne établit la norme mondiale

En 2018, l’Alliance européenne pour l’IA a commencé à rassembler plus de 6 000 parties prenantes afin d’établir des principes éthiques et de créer un dialogue public sur une utilisation mondiale fiable. Après six ans, la Législation sur l’IA de l’UE marque le premier cadre juridique global au monde spécifiquement conçu pour gérer les risques associés aux technologies d’IA, englobant des dispositions à mettre en œuvre progressivement sur une période de six à 36 mois. 

La Législation sur l’IA met l’accent sur une approche du développement et du déploiement de l’IA axée sur l’être humain, suivant la philosophie selon laquelle l’IA ne doit pas être une fin en soi, mais plutôt un outil pour favoriser l’épanouissement des individus et promouvoir le bien-être de la société. Elle y parvient en établissant plusieurs principes fondamentaux, notamment : 

  • Interdire des pratiques d’IA nocives : la Législation sur l’IA interdit d’utiliser des systèmes d’IA présentant des risques inacceptables, notamment ceux qui manipulent les décisions d’une personne ou exploitent ses vulnérabilités, évaluent une personne en fonction de son comportement social ou de ses caractéristiques personnelles, ou prédisent les risques criminels. Elle interdit également les systèmes qui exploitent le scraping non ciblé d’images faciales, la reconnaissance émotionnelle sur le lieu de travail ou à l’école, ou catégorisent des individus en fonction de données biométriques.

  • Appliquer des réglementations en fonction de la classification du risque : les systèmes d’IA à haut risque, y compris ceux utilisés comme composants de sécurité de produits et ceux qui sont eux-mêmes des produits couverts par la législation européenne, sont soumis à des obligations renforcées. Les systèmes d’IA à risque limité, comme les chatbots, sont soumis à des obligations de transparence plus légères, tandis que les systèmes à risque minime (comme les jeux vidéo basés sur l’IA et les filtres anti-spam), restent largement non réglementés. 

  • Établir des obligations de transparence : les systèmes d’IA doivent être conçus de manière transparente, en fournissant des instructions claires qui incluent des détails sur le fournisseur, les capacités et les limites du système, ainsi que tout risque potentiel. Les entreprises doivent informer les utilisateurs lorsqu’ils interagissent avec un système d’IA, sauf lorsque cela est évident ou à des fins légales comme la détection de la criminalité. 

  • Créer des mesures de soutien à l’innovation : l’UE exige des États membres qu’ils établissent des « sandboxes réglementaires pour l’IA », où les systèmes d’IA peuvent être développés, testés et validés avant leur mise sur le marché. Les petites et moyennes entreprises et les start-up auront un accès prioritaire à ces sandboxes.

Grâce à sa position proactive en matière de gouvernance de l’IA, l’Europe se positionne comme un leader mondial de l’établissement de normes réglementaires, et de nombreux autres pays envisagent d’adopter des frameworks de gouvernance similaires dans les mois à venir.

Les États-Unis privilégient quatre piliers de l’innovation responsable en matière d’IA

Les États-Unis ont continué à s’appuyer sur les efforts des administrations précédentes pour établir des frameworks de gouvernance complets de l’IA. Au début, plusieurs ministères fédéraux ont établi des principes tels que les principes d’IA responsable du ministère de la Défense et le Guide de gestion des risques liés à l’IA du ministère de l’Énergie. Récemment, la Maison-Blanche a publié son AI Bill of Rights pour guider le développement. À cet égard, le perfectionnement continu des lois et des directives exécutives vise à atténuer les risques potentiels associés au déploiement de l’IA tout en favorisant un environnement propice à l’innovation. Les États-Unis se sont concentrés sur ces quatre piliers essentiels de l’innovation responsable en matière d’IA comme fondements de leurs frameworks : 

  1. Sûreté : assurer la sûreté de l’IA implique des procédures de test rigoureuses, des exigences de certification et des mécanismes de contrôle et d’évaluation continus.

  2. Sécurité : les considérations de sécurité sont essentielles pour protéger les systèmes d’IA contre les cybermenaces, les accès non autorisés et les utilisations malveillantes. Cela implique de définir des normes en matière de protection des données, de protocoles de chiffrement et de résilience face aux attaques.

  3. Équité : l'équité dans le développement de l’IA vise à prévenir les biais dans les algorithmes qui pourraient perpétuer la discrimination ou des résultats inéquitables. Cela implique de promouvoir la diversité dans la recherche et le développement autour de l’IA, de garantir des jeux de données représentatifs et de mettre en œuvre des mesures d’équité et de responsabilité.

  4. Transparence : la transparence implique de s’assurer que les systèmes d’IA sont compréhensibles et explicables. Cela permet aux parties prenantes, y compris les utilisateurs, les organismes de réglementation et le public, de comprendre comment les décisions de l’IA sont prises, et d’évaluer leur fiabilité et leur équité. De cette façon, la transparence est source de confiance.

Ces piliers de la gouvernance de l’IA ont permis l’innovation dans tous les secteurs, créant des opportunités pour les start-up et les entrepreneurs. Par ailleurs, de nouveaux métiers émergent, impliquant la supervision, l’interprétation et la gestion de systèmes d’IA ; par exemple, le besoin en data scientists, ingénieurs en machine learning, éthiciens de l’IA et formateurs en IA a bondi. En mettant en place les mesures appropriées, l’IA a le potentiel d’accroître les capacités humaines et de créer de nouvelles opportunités d’emploi. Une réalité prometteuse qui contraste avec les craintes de suppression d’emplois par l’IA.

Un exemple d’innovation responsable en matière d’IA dans la pratique

Les solutions d’IA générative pour les services client constituent un exemple utile du type d’innovation responsable axée sur l’humain qui peut être encouragée par des frameworks de gouvernance de l’IA méthodiques.

Pour les centres d’appels, la gestion des volumes d’appels élevés peut représenter un défi important : des systèmes de réponse vocale interactifs complets peuvent entraîner de longs menus téléphoniques pour les clients, mais l’acheminement d’un appel vers un agent humain est bien plus coûteux et peut entraîner des temps d’attente plus longs. Pour faire face à l’éventail des problèmes soulevés par les clients, les agents doivent souvent garder des dizaines d’applications ouvertes sur leurs écrans, en passant constamment de l’une à l’autre. De plus, de nombreux appels gérés par des agents humains auraient pu être facilement gérés par automatisation. L’IA et le machine learning pourraient apporter une solution.

Comment cela fonctionnerait-il ? Le machine learning pourrait être utilisé pour prédire l’objet d’un appel client en fonction de toutes ses précédentes interactions avec l’entreprise. En fonction de l’objet de l’appel, celui-ci pourrait ensuite être acheminé vers un chatbot d’IA générative pour communiquer avec le client et résoudre le problème, ou acheminé vers un agent humain, qui recevrait également le contexte nécessaire à l’avance. Si le machine learning permettait de prédire correctement l’objet de l’appel du client avant que le client n’expose le problème à l’agent, cela pourrait conduire à une résolution dès le premier appel, et à des réductions significatives des coûts d’exploitation et du temps de traitement. 

En utilisant Snowflake Cortex, une entreprise pourrait garantir que les données d’entraînement, les métadonnées, le modèle d’IA générative et les prompts restent privés. Imaginez la quantité d’informations sensibles que ces appels contiennent : ces agents traitent toutes sortes d’informations confidentielles, sur leur santé ou leurs revenus, par exemple. 

Le respect de la confidentialité est essentiel pour construire une IA responsable et fiable. Et en se concentrant sur l’aide plutôt que sur le remplacement des agents humains, une solution alimentée par le ML et l’IA générative est un exemple frappant de la façon dont l’innovation responsable en matière d’IA peut contribuer à améliorer la société tout en réduisant les risques associés. 

Course à la régulation de l’IA

Les réglementations en matière d’IA ne sont pas les mêmes d’un endroit à l’autre du globe. Certains ont adopté une stratégie attentiste, convaincus qu’une approche réglementaire douce en matière d’IA attirera et fidélisera les entreprises et les investissements dans ce domaine. D’autres adoptent des stratégies proactives, donnant la priorité aux meilleures pratiques établies et visant à implémenter des systèmes d’IA sûrs et éthiques. Le framework européen en matière d’IA adopte une position définitive qui nécessite une prise de décision critique avec des humains toujours inclus dans la boucle.

Quelle que soit l’approche réglementaire retenue, les gouvernements évaluent les avantages et les conséquences réels des systèmes d’IA. La reconnaissance du fait que les systèmes d’IA ont un impact sur la vie de chaque citoyen est un thème émergent parmi les principes, frameworks et lois dans le monde. Cela souligne également l’opportunité que les systèmes d’IA peuvent améliorer de manière mesurable la productivité des utilisateurs. 

Les engagements en faveur d’un renforcement des réglementations relatives à l’IA soulignent une approche proactive pour exploiter le potentiel de l’IA tout en atténuant ses risques. En se concentrant sur la sûreté, la sécurité, l’équité et la transparence, ces efforts réglementaires visent à favoriser un écosystème d’IA non seulement innovant et compétitif, mais aussi éthique et responsable envers la société dans son ensemble.

 

Partager cet article

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Démarrez votre essai gratuitde 30 jours

Essayez Snowflake gratuitement pendant 30 jours et découvrez l’AI Data Cloud qui élimine la complexité, les coûts et les contraintes d’autres solutions.