L'Institut Vecteur organise le premier sommet sur le leadership en matière d'IA générative

18 janvier 2024

IA générative Perspectives

Par Kevin Temple

L'essor de l'IA générative change la donne dans le monde de la technologie, suscitant une innovation rapide tout en créant de nouveaux défis pour les régulateurs. Les entreprises canadiennes cherchent à savoir comment utiliser l'IA générative pour faire avancer leur mission, mieux servir leurs clients et accroître leur efficacité. 

L'Institut Vecteur est au cœur de cette conversation, ayant déjà organisé trois tables rondes en 2023 qui ont réuni nos chercheurs en IA avec des dirigeants des plus grandes entreprises du Canada et des startups les plus en vue dans le domaine de l'IA. L'objectif : établir des liens, partager des connaissances et trouver la meilleure voie à suivre avec cette nouvelle technologie passionnante.

Ces conversations ont culminé en octobre, lorsque Vector a organisé le Generative AI Thought Leadership Project pour discuter des défis et des opportunités liés à l'adoption de l'IA générative aujourd'hui. Pendant trois jours et demi, Vector a réuni 170 experts et cadres responsables de la mise en œuvre de l'IA dans leur organisation afin de discuter des enjeux les plus importants. Plus de 32 organisations, grandes et petites, de tout le Canada ont participé à l'événement.1

Il a débuté par une séance plénière d'ouverture, suivie de trois jours consacrés à des thèmes essentiels pour l'adoption de l'IA générative : la stratégie commerciale, l'exécution technique, le contrôle et la gouvernance. Le programme quotidien comprenait des présentations principales, suivies d'un débat d'experts, puis d'une répartition en petits groupes pour des tables rondes plus inclusives. Chaque journée s'est terminée par un atelier portant sur les stratégies que les organisations peuvent mettre en pratique à mesure qu'elles élaborent leurs plans d'adoption de l'IA générative.

Présentations et ateliers

La séance plénière a été ouverte par Cameron Schuler, directeur de la commercialisation et vice-président de l'innovation industrielle de Vector. Comme il l'a souligné, l'objectif du projet est de discuter de la manière de maximiser la valeur et de minimiser les risques liés au travail avec l'IA générative. M. Schuler a comparé la situation actuelle à la transformation du lieu de travail par les ordinateurs personnels. "C'est comme si nous étions encore en train d'apprendre à taper à la machine", a-t-il déclaré.

Blob

"C'est comme si nous étions encore en train d'apprendre à taper à la machine.

Cameron Schuler

Vice-président de l'innovation industrielle, Vector Institute

Michelle Bourgeois et Vik Pant (PwC) ont présenté un exposé sur la façon dont les entreprises passent rapidement de l'enthousiasme à des questions sur la valeur commerciale mesurable. Vik Pant a expliqué que les clients commettent souvent l'erreur de choisir un modèle avant de comprendre comment en faire un outil efficace. Une meilleure approche consiste à commencer par un objectif commercial, puis à déterminer le modèle ou le système qui répondra le mieux à cet objectif. Il a également souligné l'importance de choisir le modèle le moins complexe.

La session a également comporté des présentations de Rihana Msadek, data scientist du cloud de Google, et de Tony Kaikeday, directeur principal de NVIDIA, qui ont parlé des incroyables produits et services d'IA générative que leurs sociétés ont développés pour les entreprises clientes. Obimdike Okongwa, du groupe de travail AI/ML du Bureau du surintendant des institutions financières (BSIF), a également présenté la manière dont l'agence réfléchit aux risques et aux avantages de l'IA générative.

Stratégie commerciale

La deuxième journée du sommet s'est concentrée sur les stratégies commerciales et les défis pratiques liés à la mise en œuvre de l'IA générative. Les discussions ont porté sur la génération de contenu pour le marketing, l'automatisation des tâches routinières, l'innovation dans le service à la clientèle, la requalification et l'amélioration des compétences des employés, l'implication humaine dans les domaines critiques, l'IA digne de confiance, et bien plus encore.

La première présentation a été faite par Chris Mar, responsable national de la transformation et de la stratégie chez PwC. M. Mar a expliqué que les grandes entreprises divisées en différentes fonctions ou silos doivent souvent développer de nouvelles pratiques et de nouveaux organes de prise de décision pour adopter l'IA. Il a insisté sur le fait que la meilleure façon de prendre des décisions sur la manière d'instaurer le changement est de faire entendre les intérêts de toutes les parties prenantes.

La deuxième conférence a été donnée par Alex Cui, directeur technique de GPT Zero et ancien chercheur chez Vector. M. Cui a décrit l'empoisonnement des données, les hallucinations et d'autres défis auxquels les entreprises sont confrontées lorsqu'elles utilisent les LLM. Il a expliqué que la transparence est essentielle pour une IA digne de confiance, afin que le public puisse comprendre comment le contenu est généré. M. Cui a également décrit la plateforme de détection de textes d'IA de GPT Zero, qui permet aux organisations de partager des écrits certifiés avec le monde entier.

La dernière session de la journée était un atelier avec Vik Pant et Bahar Sateli de PwC intitulé "Going from What to So-What in GenAI". Leur intervention a notamment porté sur l'importance stratégique de déterminer un cas d'utilisation et d'évaluer ensuite la technologie la mieux adaptée à ce cas d'utilisation. Une évaluation correcte combine des mesures techniques objectives, des mesures de coûts et de ressources, ainsi que des mesures subjectives. Dans certains cas, a expliqué M. Pant, les outils d'IA générative s'avèrent ne pas être la meilleure option. Dans d'autres cas, une évaluation peut conduire les clients à construire un outil ou un système à partir d'un ensemble de modèles. Pant et Bahar ont décrit comment une approche prudente, axée sur les processus, permet aux entreprises de saisir les priorités et les objectifs de toutes les parties prenantes, de gagner la confiance et de créer de la valeur. 

Exécution technique

Le lendemain, l'accent a été mis sur l'exécution technique. Les discussions ont porté sur les architectures de pointe, l'adaptation de l'IA générative à des secteurs spécifiques et les moyens techniques de traiter les différentes formes de risques et de préoccupations éthiques qui découlent de l'utilisation de l'IA générative.

Dans sa présentation d'ouverture, Tracy Jenkins, professeur à l'université de Queens, a partagé les résultats de ses recherches sur la manière dont les LLM reproduisent les biais comportementaux humains, tels que l'aversion pour la perte. Elle et son équipe ont également trouvé des preuves de biais produits par les LLM eux-mêmes, ainsi que des échecs plus basiques, tels que des erreurs de logique et de calcul. Mme Jenkins a expliqué qu'il était nécessaire de mesurer les biais et les échecs des LLM et de déterminer ce qui constitue un niveau de performance acceptable pour un cas d'utilisation donné.

La deuxième conférence a été donnée par Akshaya Mishra, d'EAIGLE Inc. Avec son équipe, il a créé un système d'IA multimodal pour automatiser le suivi en temps réel des actifs des entreprises de transport. Mishra a décrit certains des défis techniques posés par la création de ce système, notamment l'explication des décisions du modèle suffisamment bien pour déboguer les défaillances et la gestion de sa consommation d'énergie.

L'atelier "Generative NLP : Capabilities, Customization, and Fairness", animé par David Emerson, professeur à l'Université de Toronto et scientifique spécialisé dans l'apprentissage automatique de Vector, a clôturé la troisième journée. M. Emerson a commencé par une description formelle des LLM et de la manière dont les algorithmes de transformation ont renforcé les capacités des chatbots et d'autres outils d'IA générative qui prolifèrent aujourd'hui. Il a montré que les LLM ne sont pas seulement efficaces pour générer du texte, mais qu'ils constituent également des outils puissants pour la classification, l'extraction de relations entre les termes, la quantification des biais et la détection de textes synthétiques.

Contrôle et gouvernance

Le dernier jour a été consacré aux questions de contrôle et de gouvernance, telles que la conformité réglementaire, la provenance des données et les mécanismes de responsabilité. Les conversations ont porté sur le déploiement responsable et sûr de l'IA générative.

Blob

"Nous devons évaluer les opportunités par rapport aux risques.

Tony Gaffney

Président et directeur général de l'Institut Vecteur

La première conférence a été donnée par Tony Gaffney, président-directeur général de Vector. Il a fait remarquer que l'essor de l'IA générative nous offre une opportunité historique, mais qu'elle exige que nous prenions au sérieux la responsabilité de rendre cette technologie sûre et fiable. Les progrès de l'IA étant plus rapides que prévu, M. Gaffney a déclaré que nous devions évaluer les opportunités par rapport aux risques. Afin d'atténuer les risques, Vector a élaboré un code de conduite et un ensemble de principes en matière d'IA, et travaille actuellement avec des organisations pour les mettre en pratique. M. Gaffney a insisté sur le fait que le développement de l'IA doit être guidé avec précaution afin de garantir que cette technologie contribue au bien-être de l'homme.

Mark Paulson, vice-président associé pour la gouvernance informatique d'entreprise chez Canadian Tire, a présenté le deuxième discours liminaire. Il a expliqué qu'il est courant pour les entreprises d'accumuler les outils. Mais l'adoption d'un trop grand nombre de copilotes et d'autres outils d'IA générative peut créer un niveau de risque ingérable. Pour établir un cadre de gouvernance de l'IA générative, M. Paulson a expliqué que son équipe et lui ont créé des garde-fous afin que l'entreprise puisse exploiter plus efficacement les outils dont elle disposait déjà. M. Paulson a également décrit comment l'IA générative peut elle-même être un outil de gouvernance puisqu'elle peut examiner, décrire et corriger le code. Le conseil de M. Paulson est de rendre les outils d'IA générative accessibles et de créer une communauté inclusive pour les utiliser efficacement.

Dan Adamson, cofondateur et PDG d'Armilla AI, a animé le dernier atelier, intitulé "Who's in charge here ? Gouvernance de l'IA générative et contrôles pour nous protéger". M. Adamson a décrit comment Armilla AI a entrepris de relever le défi de la construction de systèmes dignes de confiance. Selon lui, une question centrale pour les entreprises qui adoptent l'IA générative est de mettre en œuvre des mesures de protection spécifiques à leurs cas d'utilisation. Une approche méthodique de l'utilisation de l'IA générative combinera un certain nombre de stratégies d'IA responsable, telles que :

  • Maintenir un inventaire complet des outils d'IA et évaluer les risques que chacun d'entre eux présente.
  • Suivre l'impact potentiel des différents modèles afin que les modèles présentant des risques différents puissent être traités différemment.
  • Attribuer des rôles et des responsabilités clairs, par exemple qui est responsable de déterminer si un modèle est biaisé et qui est chargé d'assurer une transparence appropriée.
  • Utiliser des mesures de protection tout au long du cycle de vie d'un modèle d'IA, depuis les premières étapes jusqu'à la validation, le déploiement et la production.
  • Établir des critères pour déterminer quand un outil d'IA doit faire l'objet d'une évaluation indépendante, par exemple pour se conformer à de nouvelles réglementations dans une région donnée.
  • Exiger une formation de base pour les employés chargés d'utiliser les outils d'IA
  • Établir des règles claires avec les fournisseurs de modèles de base et les vendeurs qui déterminent comment les données seront utilisées et qui établissent qui est responsable dans différents types de scénarios.

M. Adamson a conclu l'atelier en invitant les participants à faire part de leurs questions dans plusieurs domaines clés, notamment la conception de l'IA générative, l'acquisition de données, le développement, le déploiement, la production et l'utilisation de fournisseurs tiers. La discussion qui a suivi a porté sur l'évaluation des biais et l'équité, le risque d'empoisonnement des données, les défis de l'ajustement fin, les tests appropriés pendant le développement, ce qu'il faut faire lorsque le fournisseur d'un modèle déployé tombe en panne et l'importance d'examiner les fournisseurs tiers.

Panel et tables rondes

Pour de nombreux participants, le panel et les tables rondes ont été le point fort de ce projet, car ils leur ont permis d'exprimer leurs idées et leurs préoccupations concernant l'IA générative et d'apprendre comment d'autres personnes réfléchissent à des défis similaires. Au cours des quatre jours, les participants sont revenus à plusieurs reprises sur quatre thèmes différents :

1. "La première règle de l'IA est de ne pas utiliser l'IA.

Plusieurs intervenants, panélistes et participants ont souligné qu'il est beaucoup trop facile de se lancer et de commencer à utiliser des outils d'IA générative sans trop réfléchir. Pour utiliser ces technologies de manière stratégique, il est essentiel de commencer par réfléchir de manière critique aux cas d'utilisation et de se demander pourquoi un outil d'IA donné devrait être utilisé avant d'adopter une technologie d'IA générative. Comme l'ont souligné les participants, l'IA générative introduit des incertitudes et des risques qui peuvent être évités avec d'autres outils, de sorte que son utilisation doit être justifiée. Comme l'a dit un participant, "la première règle de l'IA est de ne pas utiliser l'IA".

2. L'éducation et l'alphabétisation en matière d'IA sont essentielles

De nombreuses conversations ont eu lieu sur l'importance de l'éducation en tant que préoccupation centrale sous-tendant la stratégie commerciale, l'exécution technique et la gouvernance de l'IA générative. Le consensus qui s'est dégagé est que le secteur privé doit se concentrer sur l'amélioration de la culture de l'IA à tous les niveaux, à la fois au sein des organisations et du grand public. Il ne s'agit pas seulement d'une question de compréhension abstraite, mais aussi de savoir-faire concret, a fait remarquer un participant. L'idée est de s'assurer que les gens sont suffisamment informés pour comprendre les risques et poser les bonnes questions concernant l'utilisation sûre et appropriée de l'IA générative.

Un autre participant a souligné que de nombreuses personnes ne comprennent pas que les chatbots d'IA générative sont essentiellement des machines de prédiction, ce qui signifie qu'elles ont du mal à anticiper les forces et les faiblesses de la technologie. Les participants ont également établi un lien entre la maîtrise de l'IA et la réduction des risques. La formation pourrait se concentrer sur les principes du risque lié à l'IA et couvrir des questions telles que la protection de la vie privée, la sécurité et les données. Il est essentiel de comprendre la nature du risque lié à l'IA générative pour prendre de bonnes décisions. Enfin, les participants ont discuté de l'éducation comme moyen d'atténuer les préoccupations des employés concernant l'utilisation de l'IA générative. Nombre d'entre eux étaient tout à fait conscients que la technologie pourrait entraîner une réduction de la main-d'œuvre, certains travailleurs étant laissés pour compte. Former les employés à l'utilisation de l'IA générative de manière à accroître leur valeur pour l'entreprise peut être un moyen d'atténuer ces préoccupations.

3. L'adoption de l'IA implique des changements organisationnels

Une autre question largement débattue est celle du changement organisationnel nécessaire à l'adoption de technologies d'IA puissantes. Un participant a déclaré qu'il était facile d'élaborer une preuve de concept, mais que le défi résidait dans la mise à l'échelle des solutions et leur intégration dans les processus de l'entreprise, car cela exigeait de changer la façon dont les équipes travaillaient. Un autre participant a fait remarquer que les fonctions de risque et de conformité ne parlent pas le même langage que les scientifiques des données et les éthiciens - ils ont besoin d'un traducteur pour les mettre sur la même longueur d'onde. Les grandes organisations doivent travailler activement avec les différentes fonctions et unités pour parvenir à un consensus et élaborer des principes et des lignes directrices pour utiliser l'IA générative de manière efficace et responsable. 

Conscientes que l'adoption de l'IA par les entreprises est une tâche ardue, certaines sociétés ont déjà entrepris de modifier leur organisation et leur culture depuis le sommet de la hiérarchie. Un participant a décrit comment son entreprise a établi des règles et des garde-fous pour l'utilisation de l'IA générative. Elle a formé un comité représentant des équipes de l'ensemble de l'organisation qui utilise des critères largement approuvés pour approuver et guider les utilisations de l'IA générative.

4. Ces conversations sont d'une importance vitale

Le quatrième point à retenir reflète l'importance de conversations larges et inclusives pour faire progresser l'utilisation de l'IA générative. Les participants ont déclaré qu'ils appréciaient le format des tables rondes parce qu'il leur permettait d'entendre comment les autres relevaient les défis de l'IA générative. L'échange d'idées a permis aux participants d'apprendre où en sont les autres organisations sur la voie de l'adoption et d'avoir une idée de ce que pourraient être leurs propres prochaines étapes. 

 Résumant les quatre jours de conférence, un participant a déclaré que des forums tels que le projet Generative AI Thought Leadership sont nécessaires pour que les entreprises puissent parler d'une seule voix de leur investissement dans la confiance et la sécurité de l'IA. Plus les conversations seront diversifiées et inclusives, plus elles seront à même de communiquer au public l'engagement profond du secteur privé en faveur d'une IA responsable.

Quelle est la prochaine étape ?

Pendant trois jours et demi, les participants au projet ont appris que l'adoption aveugle de l'IA sans approche stratégique ne suffit pas. Il est important de poser les questions difficiles, de justifier l'utilisation de l'IA et de s'assurer qu'il s'agit du bon outil pour le travail. En outre, l'éducation est apparue comme la pierre angulaire de cette prochaine phase d'adoption : les organisations doivent renforcer les connaissances en matière d'IA à tous les niveaux pour aider à gérer les risques. Et n'oublions pas que l'adoption stratégique de l'IA ne se limite pas à jouer avec ChatGPT - l'adoption de l'IA nécessite un changement organisationnel et de nouvelles méthodes de travail au sein des équipes.

Les participants au sommet ont souligné l'importance des tables rondes de Vector, qui permettent de partager les expériences et de tracer collectivement le chemin de l'adoption de l'IA. C'est pourquoi Vector appelle les leaders de l'industrie, les organisations et les chercheurs à s'impliquer dans des projets collaboratifs qui vont au-delà de la discussion et commencent à faire de l'adoption de l'IA responsable la norme. 

Apprenez des experts qui sont passés par là, soyez la voix qui façonne la confiance et la sécurité de l'IA, et allez de l'avant avec nous. Consultez la Page des événements Vector pour trouver de nouvelles occasions de participer à la conversation ou contactez-nous dès aujourd'hui info@Vectorinstitute.ai


1 Les entreprises participantes étaient les suivantes : BMO Groupe financier, Google, NVIDIA, RBC, Banque Scotia, Groupe Banque TD, Bell Canada, Boehringer Ingelheim (Canada) Ltée, La Société Canadian Tire Ltée, CIBC, KPMG Canada, OMERS, Financière Sun Life, TELUS, Linamar Corporation, CentML Inc. Private AI, Troj.AI, et nous remercions tout particulièrement PwC Canada, qui a mis à la disposition de Vector les locaux nécessaires à l'organisation de l'événement. De plus, six entreprises de la voie rapide de Vector - Armilla AI Inc., Eaigle Inc., Ethical AI Inc., Fairly AI Inc., GPTZero Inc. et PredictNow Inc. - ont participé activement à l'événement. Nos partenaires de l'écosystème comprenaient l'Association des banquiers canadiens, l'Association canadienne du marketing, GovTechON, le Global Risk Institute, la Commission du droit de l'Ontario et le Bureau du surintendant des institutions financières.

En rapport :

Portrait de Xi He, membre de la faculté Vector.
Perspectives
Une IA digne de confiance

Comment le chercheur Xi He, spécialiste des vecteurs, utilise la confidentialité différentielle pour préserver la confidentialité des données

Des panneaux solaires sont posés sur de l'herbe verte. Il y a des arbres et des gratte-ciel à l'arrière-plan.
Perspectives

L'IA au service du développement durable

Trois personnes regardent fixement un ordinateur portable portant un logo Vector.
Perspectives
Recherche

Vector Research Blog : Réseaux neuronaux structurés pour l'estimation de la densité et l'inférence causale