IA générative pour l’entreprise : risques et opportunités

28 septembre 2023

Perspectives sur l’IA générative 2023

Lors de la troisième table ronde du Vector Institute sur l’IA générative, les participants ont discuté des enjeux de confidentialité et de sécurité de l’IA générative ainsi que des opportunités d’affaires et de l’impact que la technologie pourrait offrir.

Les première et deuxième tables rondes du Vector Institute sur l’IA générative ont suscité des conversations précieuses et un vif intérêt pour poursuivre la discussion alors que cette technologie évolue rapidement. Pour la troisième table ronde en août 2023, Vector a réuni des leaders et praticiens de l’IA issus d’entreprises canadiennes de premier plan avec des chercheurs universitaires afin de discuter des risques et des opportunités que l’IA générative représente pour les entreprises.

Une présentation sur les questions de confidentialité et de sécurité de l’IA générative par Nicolas Papernot, membre du corps professoral de Vector, a été un point fort de la session. Il comprenait également deux tables rondes. Le premier portait sur les risques et les préoccupations liées à la vie privée, avec des leaders d’EY, Private AI, Armilla AI et MindBridge AI. La deuxième couvrait les opportunités et l’impact au niveau des entreprises, et comprenait des leaders de Canadian Tire, Cohere, KPMG et RBC, ainsi que Marcus Brubaker, affilié au corps professoral de Vector. 

Confidentialité différentielle et récursion

Dans sa présentation, Papernot a proposé une définition stricte et exploitable de la vie privée : comparer un système avec un enregistrement sensible à un autre système identique, sauf que le dossier sensible est retiré. S’il n’y a pas de différence entre ce qu’un adversaire peut apprendre des deux systèmes, alors le système est privé. Cette approche concrète pour évaluer la vie privée algorithmique, connue sous le nom de « confidentialité différentielle », est devenue la référence d’excellence chez les chercheurs parce qu’elle est intuitive, précise et utile.

La confidentialité différentielle constitue la base des techniques pour préserver la vie privée sans recourir à des méthodes peu fiables d’anonymisation des données. À la place, des couches et des distorsions sont introduites pour empêcher la fuite de données privées. Par exemple, les données sont divisées en sous-ensembles de sorte que les instances d’un modèle sont entraînées séparément sur différents sous-ensembles. Le résultat d’une requête agrège les votes des instances individuelles et masque les données sous-jacentes. Des étiquettes de protection du bruit et de la confidentialité sont également introduites, empêchant davantage les adversaires d’acquérir des données sensibles. Papernot affirme qu’avec le bon contexte et la bonne combinaison de ces techniques, il est possible d’avoir une garantie mathématique que la confidentialité sera préservée et que les attaques adverses ne pourront pas provoquer une fuite de données. 

Papernot a mis en avant la fraude financière comme application de cette technique. Les banques pourraient utiliser une confidentialité différentielle pour construire un système qui utilise les données historiques des clients afin de reconnaître les transactions frauduleuses, sans risque de divulguer les informations privées d’un client individuel.

Il a aussi abordé la récursion, lorsque les systèmes d’apprentissage automatique sont entraînés sur leurs propres sorties. La popularité des grands modèles de langage a poussé de nombreux chercheurs et autres à signaler des inquiétudes quant à la façon dont les LLM évolueront à mesure qu’ils commenceront à être entraînés sur le texte généré par les LLM plutôt que par des humains. Papernot a montré que le résultat ultime de la récursion est l’effondrement du modèle. Avec le temps, il commence à surestimer les résultats les plus probables et à sous-estimer les résultats moins probables, amplifiant les biais de l’algorithme jusqu’à ce que sa capacité à faire des prédictions perde toute valeur. Dans le cas des LLM, il ne faut que neuf itérations avant que leurs réponses deviennent du charabia.

IA générative pour les entreprises : risques et préoccupations liées à la vie privée

Les panélistes pour la discussion sur les risques et les préoccupations liées à la vie privée dans l’utilisation de l’IA générative en entreprise ont apporté des années d’expérience dans la navigation dans de nouvelles technologies. Ils ont aussi une connaissance directe des défis liés à la mise à profit de l’IA générative.

En général, les panélistes s’accordaient à dire que la promesse d’énormes gains de productivité de l’IA générative avait déclenché une ruée vers l’or. Pourtant, le manque de garde-fous suffisants pour son adoption demeure une préoccupation. Selon les panélistes, certaines entreprises ne prennent pas les enjeux assez au sérieux, tandis que d’autres avancent plus lentement. Un panéliste a décrit un client qui s’est rendu compte que la dépendance de son entreprise à la reconnaissance vocale comme mesure de sécurité n’était soudainement plus viable. Compte tenu des capacités de l’IA générative, la leçon plus large était qu’ils devaient revoir et réévaluer tous leurs processus de confiance, particulièrement comme outil entre les mains d’acteurs malveillants.

Des entreprises plus prudentes ont empêché leurs employés d’accéder aux modèles populaires sur l’équipement fourni par l’entreprise. D’autres, cependant, adoptent une approche plus proactive, lançant des programmes de formation à grande échelle afin de s’assurer que les employés comprennent les risques et les usages appropriés de l’IA générative. Les panélistes ont observé que les équipes juridiques s’efforcent d’établir des normes concernant les relations avec les fournisseurs et les contrats pour les produits et services d’IA tiers. S’assurer que les systèmes d’IA générative protègent notre vie privée est essentiel pour créer une IA fiable, ont-ils insisté. Tant que les entreprises utiliseront des modèles de base largement accessibles dont le code n’a pas accès, construire des systèmes fiables sera un défi.

Pour cette raison, un panéliste a déclaré que les fournisseurs de systèmes d’IA générative doivent démontrer qu’ils disposent des contrôles nécessaires dans la façon dont ils construisent des modèles. Une façon d’y parvenir est de faire auditer les algorithmes par un tiers, avec les résultats disponibles pour les clients. De même, établir un système de certification standardisé pourrait aider à assouplir les pratiques de sécurité des fournisseurs.

Un panéliste a suggéré qu’il n’existe pas de solutions faciles pour les dirigeants d’entreprise qui cherchent à atténuer les risques liés à la vie privée et à la sécurité lors du déploiement de modèles d’IA. Le meilleur conseil, ont-ils dit, est d’établir un ensemble clair de politiques responsables en matière d’IA. En s’appuyant sur cette base, les entreprises peuvent alors élaborer des politiques plus spécifiques régissant l’utilisation de l’IA générative. Un autre panéliste a souligné que bon nombre des défis posés par l’IA générative sont mieux relevés par la collaboration et le dialogue académiques.

Opportunités et impact au niveau de l’entreprise

Le deuxième panel a examiné le potentiel de l’IA générative comme outil fondamental permettant aux entreprises d’améliorer l’efficacité et d’accroître la productivité. 

Un panéliste a suggéré que l’industrie financière est particulièrement bien préparée à adopter l’IA générative comme outil, puisqu’elle dispose déjà de pratiques bien établies pour gérer les risques et d’exigences réglementaires strictes. La tâche consiste à s’appuyer sur ces pratiques existantes, en introduisant soigneusement de nouvelles garde-fous pour chaque nouvel outil qui traite chaque cas d’usage différemment, selon le degré de risque qu’ils introduisent. Un chatbot qui donne des conseils financiers à des clients pourrait être à haut risque, tandis qu’un système qui résume et recommande des nouvelles pour qu’un analyste interne puisse les suivre est moins risqué.

Un large consensus s’est établi que l’IA générative entraînera des changements significatifs dans le service à la clientèle. Un panéliste envisage l’IA générative comme un outil précieux qui permettra aux agents humains du service à la client de mieux soutenir leurs clients en leur fournissant efficacement l’information dont ils ont besoin. Cependant, les panélistes s’attendaient aussi à ce qu’elle soit utilisée pour ouvrir de nouveaux canaux numériques afin de soutenir les clients, leur offrant ainsi une meilleure expérience utilisateur.

Interrogé sur l’ampleur de la transition que l’IA générative apportera, un panéliste a prédit qu’elle serait comparable au changement massif des années 1980 et 1990, lorsque d’abord les ordinateurs personnels puis Internet ont reprogrammé notre façon de travailler et de communiquer. Ils considèrent que les nouveaux outils, applications et changements que l’IA générative apportera sont mieux compris comme le dernier tournant dans la révolution numérique qui transforme le milieu de travail qui dure depuis des décennies.

Tables rondes

La dernière session de la journée a présenté des tables rondes impliquant tous les participants. Ils ont donné une série de réponses lorsqu’on leur a demandé quelles étaient leurs plus grandes préoccupations concernant la mise en œuvre de l’IA générative. Certains ont souligné leur conviction que la réglementation de l’IA influencera son utilisation. D’autres se concentraient sur la façon de créer des outils que clients et clients utiliseront réellement et sur le défi de suivre cette technologie en rapide évolution. Un participant a souligné l’importance de forums comme les tables rondes de Vector, car ils permettent aux praticiens et leaders de l’IA de discuter entre eux, d’entendre des experts et de discuter des défis et des opportunités.

Compte tenu de toute l’incertitude entourant cette technologie, les participants étaient impatients de discuter de la façon d’avancer. L’un d’eux soulignait l’importance pour les organisations de s’assurer qu’il y a un humain dans la boucle, quelqu’un responsable de vérifier les résultats de l’IA générative avant qu’ils ne soient adressés aux clients et aux clients. Comme un autre participant l’a souligné, ces personnes auront besoin d’une formation spécialisée pour détecter et corriger les résultats erronés – surtout lorsque ces résultats correspondent aux biais humains ou que les hallucinations des machines paraissent réalistes ou convaincantes.

Le changement organisationnel était un autre thème soulevé par les participants, faisant écho à l’idée précédente que la transformation à venir sera similaire en portée à celle des années 1980 et 1990. L’adoption de technologies puissantes nécessite généralement de nouvelles structures organisationnelles. Un participant a dit que pour en tirer le meilleur parti, les organisations devront briser les silos et faciliter des discussions importantes sur les compromis liés à l’adoption des technologies d’IA générative. Ce qui pourrait être un avantage pour une partie d’une organisation, disaient-ils, pourrait créer des problèmes disproportionnés pour une autre.

Les participants ont également souligné que les silos réglementaires gouvernementaux créent aussi des défis. Il est crucial que différents organismes de réglementation commencent à discuter entre eux afin d’évaluer comment leurs différents ensembles de règlements peuvent entrer en conflit, a indiqué un participant. C’est un enjeu particulièrement pressant pour l’industrie financière, qui est déjà tenue de se conformer à une série de réglementations différentes.

Pendant ce temps, alors que les réglementations sur l’IA continuent d’être discutées et élaborées, les organisations et industries qui ne sont pas habituées à une surveillance gouvernementale stricte devront rattraper leur retard et mettre en place des pratiques appropriées pour respecter leurs obligations réglementaires, comme documenter et rendre compte de leurs utilisations de l’IA.

Certains participants ont exprimé des préoccupations de leurs équipes concernant la mise en œuvre de l’IA sans suffisamment de clarté sur la façon dont elle sera réglementée. Un panéliste estime que la meilleure option est d’aller de l’avant avec l’IA tout en restant sur une feuille de route sensée : commencer par des principes de base régissant l’utilisation de l’IA générative, expliquer de façon plus détaillée comment ces principes s’appliquent à tous les cas d’utilisation proposés, puis construire des outils d’IA générative conçus pour refléter ces principes. Selon eux, suivre cette voie rendra plus probable que leurs outils d’IA s’alignent sur les règlements à venir.

Après la table ronde, des discussions animées et spontanées se sont poursuivies alors que les participants ont profité du dîner, partagé leurs expériences et échangé des idées. Alors que l’IA générative transforme la façon dont les entreprises travaillent, créent, collaborent, partagent de l’information et engagent leurs clients, ces conversations continueront d’être un moyen inestimable de suivre le rythme du changement.

Lisez à propos des première et deuxième tables rondes de Vector sur l’IA générative.

À lire aussi :

2026
Réflexions
Recherche
Recherche 2026

La nouvelle cartographie de l’invisible

Logo vectoriel
2025
Réflexions

Une nouvelle étude révèle l’impact économique de 100 milliards de dollars de l’IA à travers le Canada, avec l’Ontario en tête

2025
Réflexions
Partenariat
Histoires de réussite

Pourquoi le partenariat du leader bancaire en IA CIBC avec le Vector Institute continue de croître