L'IA générative pour l'entreprise : Risques et opportunités

28 septembre 2023

IA générative Perspectives

Lors de la troisième table ronde de l'Institut Vecteur sur l'IA générative, les participants ont discuté des questions de confidentialité et de sécurité de l'IA générative, ainsi que des opportunités commerciales et de l'impact que cette technologie pourrait avoir.

Les première et deuxième tables rondes de l'Institut Vecteur sur l'IA générative ont donné lieu à de précieuses conversations et ont suscité un vif intérêt pour la poursuite de la discussion à mesure que cette technologie se développe rapidement. Pour la troisième table ronde en août 2023, Vector a réuni des leaders et des praticiens de l'IA issus d'entreprises canadiennes de premier plan et des chercheurs universitaires pour discuter des risques et des opportunités que l'IA générative représente pour les entreprises.

La présentation de Nicolas Papernot, membre de la faculté Vector, sur les questions de confidentialité et de sécurité de l'IA générative a été un moment fort de la session. Deux tables rondes ont également été organisées. La première portait sur les risques et les préoccupations en matière de protection de la vie privée et réunissait des dirigeants d'EY, de Private AI, d'Armilla AI et de MindBridge AI. La seconde portait sur les opportunités et l'impact au niveau de l'entreprise et réunissait des dirigeants de Canadian Tire, Cohere, KPMG et RBC, ainsi que Marcus Brubaker, membre affilié du corps professoral de Vector. 

Confidentialité différentielle et récursivité

Dans sa présentation, M. Papernot a proposé une définition stricte et applicable de la protection de la vie privée : il s'agit de comparer un système contenant un document sensible à un autre système identique, à l'exception du document sensible qui a été supprimé. S'il n'y a pas de différence entre ce qu'un adversaire peut apprendre des deux systèmes, alors le système est privé. Cette approche concrète de l'évaluation de la protection algorithmique de la vie privée, connue sous le nom de "protection différentielle de la vie privée", est devenue l'étalon-or des chercheurs car elle est intuitive, précise et utile.

La confidentialité différentielle constitue la base des techniques de préservation de la vie privée sans utiliser de méthodes peu fiables d'anonymisation des données. Au lieu de cela, des couches et des distorsions sont introduites pour empêcher la fuite de données privées. Par exemple, les données sont divisées en sous-ensembles de sorte que les instances d'un modèle sont formées séparément sur différents sous-ensembles. Le résultat d'une requête agrège les votes des instances individuelles et masque les données sous-jacentes. Le bruit et les étiquettes préservant la vie privée sont également introduits, empêchant ainsi les adversaires d'acquérir des données sensibles. M. Papernot explique qu'avec le bon contexte et la bonne combinaison de ces techniques, il est possible d'avoir une garantie mathématique que la vie privée sera préservée et que les attaques adverses seront incapables de provoquer une fuite de données. 

Papernot a souligné que la fraude financière était une application de cette technique. Les banques pourraient utiliser la confidentialité différentielle pour construire un système qui utilise les données historiques des clients pour reconnaître les transactions frauduleuses, sans risquer de divulguer les informations privées d'un client individuel.

Il a également abordé la question de la récursivité, lorsque les systèmes d'apprentissage automatique sont formés sur leurs propres résultats. La popularité des grands modèles de langage a incité de nombreux chercheurs et d'autres personnes à s'inquiéter de la manière dont les MLD changeront lorsqu'ils commenceront à être entraînés sur des textes générés par des MLD au lieu d'être écrits par des humains. Papernot a montré que le résultat ultime de la récursivité est l'effondrement du modèle. Au fil du temps, il commence à surestimer les résultats les plus probables et à sous-estimer les résultats moins probables, ce qui amplifie les biais de l'algorithme jusqu'à ce que sa capacité à faire des prédictions perde toute valeur. Dans le cas des LLM, il ne faut que neuf itérations avant que leurs réponses ne deviennent du charabia.

L'IA générative pour l'entreprise : Risques et préoccupations en matière de protection de la vie privée

Les participants à la discussion sur les risques et les problèmes de protection de la vie privée liés à l'utilisation de l'IA générative par les entreprises ont des années d'expérience dans le domaine des nouvelles technologies. Ils ont également une connaissance directe des défis à relever pour utiliser l'IA générative à bon escient.

D'une manière générale, les panélistes ont convenu que la promesse d'énormes gains de productivité de l'IA générative avait créé une véritable ruée vers l'or. Cependant, l'absence de garde-fous suffisants pour son adoption reste un sujet de préoccupation. Selon les panélistes, certaines entreprises ne prennent pas ces questions suffisamment au sérieux, tandis que d'autres avancent plus lentement. L'un d'entre eux a décrit un client qui s'est rendu compte que la dépendance de son entreprise à l'égard de la reconnaissance vocale en tant que mesure de sécurité n'était soudain plus viable. À la lumière des capacités de l'IA générative, la leçon générale était qu'ils devaient revoir et réévaluer tous leurs processus de confiance, en particulier en tant qu'outil entre les mains de mauvais acteurs.

Les entreprises les plus prudentes ont empêché leurs employés d'accéder aux modèles les plus populaires sur les équipements fournis par l'entreprise. D'autres, en revanche, adoptent une approche plus proactive, en lançant des programmes de formation à grande échelle pour s'assurer que les employés comprennent les risques et les utilisations appropriées de l'IA générative. Les panélistes ont observé que les équipes juridiques s'empressent d'établir des normes concernant les relations avec les fournisseurs et les contrats pour les produits et services d'IA de tiers. Ils ont souligné qu'il est essentiel de s'assurer que les systèmes d'IA générative protègent notre vie privée pour créer une IA digne de confiance. Tant que les entreprises utiliseront des modèles de base largement disponibles dont elles n'ont pas accès au code, il sera difficile de créer des systèmes fiables.

C'est pourquoi, selon un participant au panel, les fournisseurs de systèmes d'IA générative doivent démontrer qu'ils disposent des contrôles nécessaires dans la manière dont ils construisent les modèles. L'un des moyens d'y parvenir est de faire auditer les algorithmes par un tiers et de mettre les résultats à la disposition des clients. De même, la mise en place d'un système de certification normalisé pourrait contribuer à garantir les pratiques de sécurité des fournisseurs.

Un panéliste a suggéré qu'il n'y a pas de réponses faciles pour les dirigeants d'entreprise qui cherchent à atténuer les risques en matière de protection de la vie privée et de sécurité lors du déploiement de modèles d'IA. Le meilleur conseil, ont-ils dit, est d'établir un ensemble de politiques claires en matière d'IA responsable. Sur cette base, les entreprises peuvent ensuite élaborer des politiques plus spécifiques régissant l'utilisation de l'IA générative. Un autre panéliste a souligné que la collaboration et le dialogue entre les universités sont les meilleurs moyens de relever les nombreux défis posés par l'IA générative.

Opportunités et impact au niveau de l'entreprise

Le deuxième panel a examiné le potentiel de l'IA générative en tant qu'outil fondamental permettant aux entreprises d'améliorer leur efficacité et leur productivité. 

L'un des panélistes a suggéré que le secteur financier est particulièrement bien préparé à adopter l'IA générative en tant qu'outil, car il dispose déjà de pratiques bien établies en matière de gestion des risques et d'exigences réglementaires rigoureuses. La tâche consiste à s'appuyer sur ces pratiques existantes, en introduisant avec précaution de nouveaux garde-fous pour tous les nouveaux outils, en traitant chaque cas d'utilisation différemment, en fonction du degré de risque qu'ils introduisent. Un chatbot qui donne des conseils financiers à des clients pourrait présenter un risque élevé, tandis qu'un système qui résume et recommande des articles d'actualité à un analyste interne pour qu'il en assure le suivi est moins risqué.

Un large consensus s'est dégagé sur le fait que l'IA générative entraînera des changements significatifs dans le service à la clientèle. L'un des panélistes estime que l'IA générative deviendra un outil précieux qui permettra aux agents du service clientèle de mieux aider les clients en leur fournissant efficacement les informations dont ils ont besoin. Cependant, les panélistes s'attendent également à ce qu'elle soit utilisée pour ouvrir de nouveaux canaux numériques afin d'aider les clients, en leur offrant une meilleure expérience utilisateur.

Interrogé sur l'ampleur de la transition qu'apportera l'IA générative, un panéliste a prédit qu'elle serait comparable aux changements massifs survenus dans les années 1980 et 1990, lorsque les ordinateurs personnels, puis l'internet, ont reprogrammé notre façon de travailler et de communiquer. Selon eux, les nouveaux outils, les nouvelles applications et les changements qu'apportera l'IA générative sont à considérer comme le dernier tournant de la révolution numérique qui transforme le lieu de travail depuis des décennies.

Tables rondes

La dernière session de la journée a donné lieu à des tables rondes réunissant tous les participants. Ceux-ci ont donné un large éventail de réponses lorsqu'on leur a demandé quelles étaient leurs plus grandes préoccupations concernant la mise en œuvre de l'IA générative. Certains ont souligné qu'ils pensaient que les réglementations en matière d'IA détermineraient son utilisation. D'autres se sont concentrés sur la manière de créer des outils que les clients utiliseront réellement et sur le défi de suivre l'évolution rapide de cette technologie. Un participant a souligné l'importance des forums tels que les tables rondes de Vector, car ils permettent aux praticiens et aux leaders de l'IA de se parler, d'entendre des experts et de discuter des défis et des opportunités.

Compte tenu de toutes les incertitudes entourant cette technologie, les participants étaient impatients de discuter de la manière d'aller de l'avant. L'un d'entre eux a souligné l'importance pour les organisations de s'assurer qu'il y a un humain dans la boucle, une personne chargée de vérifier les résultats de l'IA générative avant qu'ils ne soient transmis aux clients. Comme l'a souligné un autre participant, ces personnes auront besoin d'une formation spécialisée pour détecter et modifier les résultats erronés, en particulier lorsque ces résultats sont conformes aux préjugés humains ou que les hallucinations de la machine semblent réalistes ou convaincantes.

Le changement organisationnel est un autre thème abordé par les participants, faisant écho à l'idée précédente selon laquelle les transformations à venir auront une portée similaire à celles des années 1980 et 1990. L'adoption de technologies puissantes tend à nécessiter de nouvelles structures organisationnelles. Un participant a déclaré que pour en tirer le meilleur parti, les organisations devront briser les cloisonnements et faciliter les conversations importantes sur les compromis impliqués dans l'adoption des technologies d'IA générative. Ce qui peut être une aubaine pour une partie d'une organisation peut créer des problèmes considérables pour une autre partie.

Les participants ont également noté que le cloisonnement des réglementations gouvernementales pose également des problèmes. Selon un participant, il est essentiel que les différents organismes de réglementation commencent à se parler afin d'évaluer les risques de conflit entre leurs différentes réglementations. Il s'agit d'une question particulièrement urgente pour l'industrie financière, qui est déjà tenue de se conformer à toute une série de réglementations différentes.

En attendant, alors que les réglementations sur l'IA continuent d'être discutées et élaborées, les organisations et les industries qui ne sont pas habituées à une surveillance gouvernementale stricte devront rattraper leur retard et mettre en œuvre des pratiques appropriées pour respecter leurs obligations réglementaires, comme la documentation et les rapports sur leurs utilisations de l'IA.

Certains participants ont fait part des inquiétudes de leurs équipes concernant la mise en œuvre de l'IA en l'absence de clarté suffisante sur la manière dont elle sera réglementée. Un panéliste estime que la meilleure option consiste à aller de l'avant avec l'IA tout en respectant une feuille de route raisonnable : commencer par les principes de base régissant l'utilisation de l'IA générative, articuler la manière dont ces principes s'appliquent de manière plus détaillée à tous les cas d'utilisation proposés, puis construire des outils d'IA générative conçus pour refléter ces principes. En suivant cette voie, ont-ils suggéré, il est plus probable que leurs outils d'IA s'alignent sur les réglementations à venir.

Après la table ronde, des discussions animées et spontanées se sont poursuivies pendant que les participants déjeunaient, partageaient leurs expériences et échangeaient des idées. Alors que l'IA générative transforme la façon dont les entreprises travaillent, créent, collaborent, partagent l'information et engagent les clients, ces conversations continueront d'être un moyen inestimable de suivre le rythme du changement.

Découvrez les première et deuxième tables rondes de Vector sur l'IA générative.

En rapport :

Homme tapant sur son ordinateur portable
IA générative

Comment les entreprises peuvent-elles concilier l'innovation en matière d'IA et la cybersécurité ?

Trois personnes regardent fixement un ordinateur portable portant un logo Vector.
IA générative
Recherche

Évaluation comparative de Grok-1 de xAI

Un homme regarde un tableau blanc sur lequel sont inscrites des formules en rouge.
Perspectives
Une IA digne de confiance

Comment mettre en œuvre des systèmes d'IA en toute sécurité