Le Vector Institute organise un sommet unique en ce genre sur le leadership en IA générative

18 janvier 2024

Perspectives sur l’IA générative 2024

Par Kevin Temple

L’essor de l’IA générative change la donne dans le monde de la technologie, stimulant une innovation rapide tout en créant de nouveaux défis pour les régulateurs. Les entreprises canadiennes découvrent comment utiliser l’IA générative pour faire avancer leur mission, mieux servir leurs clients et augmenter leur efficacité. 

Le Vector Institute a été en plein cœur de cette conversation, ayant auparavant organisé trois tables rondes en 2023 qui ont réuni nos chercheurs en IA avec des leaders des plus grandes entreprises canadiennes et des startups d’IA les plus en vogue. L’objectif : créer des liens, partager ses connaissances et trouver la meilleure voie à suivre avec cette nouvelle technologie passionnante.

Ces conversations ont culminé en octobre, lorsque Vector a convoqué le projet de leadership d’opinion en IA générative pour discuter des défis et des opportunités d’adopter l’IA générative aujourd’hui. En trois jours et demi, Vector a réuni 170 experts et cadres responsables de la mise en œuvre de l’IA dans leurs organisations pour discuter des enjeux qui sont au cœur de l’esprit. L’événement a réuni plus de 32 grandes et petites organisations de partout au Canada. 1

Elle a débuté par une séance plénière d’ouverture, suivie de trois jours couvrant les thèmes clés de l’adoption de l’IA générative : la stratégie d’affaires, l’exécution technique, ainsi que le contrôle et la gouvernance. Le programme quotidien comprenait des présentations principales, suivies d’une table ronde, puis des groupes en groupes plus petits pour des tables rondes plus inclusives. Chaque journée s’est terminée par un atelier portant sur des stratégies que les organisations peuvent mettre en pratique alors qu’elles élaborent leurs plans pour adopter l’IA générative.

Discours principaux, présentations et ateliers

La séance plénière a présenté les remarques d’ouverture de Cameron Schuler, directeur de la commercialisation de Vector et vice-président de l’innovation industrielle. Comme il l’a souligné, l’objectif du projet est de discuter de la manière de maximiser la valeur et de minimiser les risques liés au travail avec l’IA générative. Schuler a comparé notre situation aujourd’hui à la transformation du milieu de travail par les ordinateurs personnels. « C’est comme si on apprenait encore à taper », a-t-il dit.

Blob

« On dirait qu’on apprend encore à taper. »

Cameron Schuler

VP Innovation industrielle, Vector Institute

Michelle Bourgeois et Vik Pant (PwC) ont donné une présentation d’ouverture sur la façon dont les entreprises passent rapidement de l’enthousiasme à la pose de questions sur la valeur d’affaires mesurable. Une erreur fréquente que font les clients, a expliqué Pant, est de choisir un modèle avant de comprendre comment en faire un outil efficace. Une meilleure approche est de commencer par un objectif d’affaires, puis de déterminer le modèle ou le système qui servira le mieux cet objectif. Il a également souligné la valeur de choisir le modèle le moins complexe.

La session a également présenté Rihana Msadek, scientifique des données cloud chez Google, et Tony Kaikeday, directeur principal chez NVIDIA, qui ont parlé des incroyables produits et services d’IA générative développés par leurs entreprises pour des clients d’entreprise. Obimdike Okongwa, du groupe de travail IA/ML du Bureau du surintendant des institutions financières (OSFI), a également fait une présentation sur la façon dont l’agence réfléchit aux risques et bénéfices de l’IA générative.

Stratégie d’affaires

Le deuxième jour du sommet s’est concentré sur les stratégies d’affaires et les défis pratiques pour la mise en œuvre de l’IA générative. Les discussions portaient sur la création de contenu pour le marketing, l’automatisation des tâches routinières, l’innovation en service à la clientèle, la requalification et l’amélioration des compétences des employés, l’implication humaine dans des domaines critiques, l’IA fiable, et plus encore.

La première présentation principale a été donnée par Chris Mar, responsable national de la transformation et de la stratégie chez PwC. Mar a expliqué comment les grandes entreprises divisées en différentes fonctions ou silos doivent souvent développer de nouvelles pratiques et organes décisionnels pour adopter l’IA. Il a souligné que les décisions sur la manière d’instaurer le changement sont mieux prises en donnant voix aux intérêts de toutes les parties prenantes.

La deuxième conférence principale était donnée par Alex Cui, CTO de GPT Zero, ancien chercheur en Vector. Cui a décrit l’empoisonnement des données, les hallucinations et d’autres défis auxquels les entreprises font face lorsqu’elles utilisent des LLM. Il a expliqué que la transparence est essentielle pour une IA digne de confiance, afin que le public puisse comprendre comment le contenu est généré. Cui a également décrit la plateforme de détection de texte par IA de GPT Zero, qui permet aux organisations de partager des écrits certifiés avec le monde.

La dernière session de la journée était un atelier avec Vik Pant et Bahar Sateli de PwC intitulé « Passer de quoi à ce qu’est-ce dans GenAI ». L’un des axes de leur présentation portait sur l’importance stratégique de déterminer un cas d’usage, puis d’évaluer quelle technologie le soutient le mieux. Une évaluation appropriée combine des métriques objectives techniques, des métriques de ressources de coûts et des métriques subjectives. Dans certains cas, selon Pant, les outils d’IA générative ne sont pas la meilleure option. Dans d’autres cas, une évaluation peut amener les clients à construire un outil ou un système à partir d’un ensemble de modèles. Pant et Bahar ont décrit comment une approche prudente et axée sur les processus permet aux entreprises de saisir les priorités et les objectifs de toutes les parties prenantes, de gagner la confiance et de créer de la valeur. 

Exécution technique

Le lendemain, l’attention s’est tournée vers l’exécution technique. Les discussions portaient sur les architectures de pointe, l’adaptation de l’IA générative à des industries spécifiques, ainsi que les moyens techniques pour répondre aux différentes formes de risques et de préoccupations éthiques liées à l’utilisation de l’IA générative.

Dans sa présentation d’ouverture, la professeure Tracy Jenkins de l’Université Queens a partagé les résultats de ses recherches sur la façon dont les LLM reproduisent les biais comportementaux humains, tels que l’aversion à la perte. Elle et son équipe ont également trouvé des preuves de biais produits par les LLM eux-mêmes, ainsi que des défaillances plus fondamentales, telles que des erreurs de logique et de calcul. Jenkins a expliqué la nécessité de mesurer les biais et les défaillances des LLM et de déterminer quel est un niveau de performance acceptable pour un cas d’utilisation donné.

La deuxième conférence principale a été donnée par Akshaya Mishra, d’EAIGLE Inc. Lui et son équipe ont créé un système d’IA multimodal pour automatiser le suivi en temps réel des actifs pour les entreprises de transport. Mishra a décrit certains des défis techniques liés à la création de ce système, notamment en expliquant suffisamment bien les décisions du modèle pour déboguer les pannes et en gérant sa consommation d’énergie.

L’atelier, « PNL génératif : capacités, personnalisation et équité », donné par David Emerson, professeur à l’Université de Toronto et scientifique en apprentissage automatique Vector, s’est terminé la troisième journée. Emerson a commencé par une description formelle des LLM et de la façon dont les algorithmes transformateurs ont surboosté les capacités des chatbots et d’autres outils d’IA générative qui prolifèrent aujourd’hui. Il a démontré que les LLM ne sont pas seulement efficaces pour générer du texte, mais qu’ils sont aussi des outils puissants pour classer, extraire des relations entre les termes, quantifier les biais et détecter le texte synthétique.

Contrôle et gouvernance

La dernière journée s’est concentrée sur les questions de contrôle et de gouvernance, telles que la conformité réglementaire, la provenance des données et les mécanismes de reddition de comptes. Les discussions portaient sur le déploiement responsable et sécuritaire de l’IA générative.

Blob

« Nous devons peser les opportunités face aux risques. »

Tony Gaffney

Président et chef de la direction, Vector Institute

La première conférence principale a été donnée par Tony Gaffney, président et chef de la direction de Vector. Il a souligné que nous avons une opportunité historique avec l’essor de l’IA générative, mais qui nous oblige à prendre au sérieux la responsabilité de rendre cette technologie sûre et digne de confiance. Avec les avancées de l’IA plus rapides que prévu, a dit Gaffney, nous devons peser les opportunités face aux risques. Pour atténuer les risques, Vector a développé un code de conduite et un ensemble de principes d’IA, et travaille maintenant avec les organisations pour les mettre en pratique. Gaffney a souligné que le développement de l’IA doit être guidé avec soin pour garantir que cette technologie améliore le bien-être humain.

Mark Paulson, vice-président associé à la gouvernance des TI d’entreprise chez Canadian Tire, a donné la deuxième conférence principale. Il a décrit qu’il est courant que les entreprises accumulent des outils. Mais s’engager en trop de copilots et d’autres outils d’IA générative peut créer un risque ingérable. Pour établir un cadre de gouvernance de l’IA générative, Paulson a expliqué, lui et son équipe ont créé des garde-fous afin que l’entreprise puisse mieux exploiter les outils déjà possédés. Paulson a aussi décrit comment l’IA générative peut elle-même être un outil de gouvernance puisqu’elle peut revoir, décrire et corriger du code. Le conseil de Paulson était de rendre les outils d’IA générative accessibles et de créer une communauté inclusive pour les utiliser efficacement.

Dan Adamson, cofondateur et PDG d’Armilla AI, a animé l’atelier final : « Qui est responsable ici? Gouvernance et contrôles de l’IA générative pour nous protéger. » Adamson a décrit comment Armilla AI s’est donné pour mission de résoudre le défi de construire des systèmes fiables. Un enjeu central pour les entreprises qui adoptent l’IA générative, a-t-il dit, est de mettre en place des mesures de protection propres à leurs cas d’utilisation. Une approche méthodique de l’utilisation de l’IA générative combinera plusieurs stratégies d’IA responsable, telles que :

  • Maintenez un inventaire complet des outils d’IA et évaluez les risques que chacun présente
  • Suivez l’impact potentiel des différents modèles afin que les modèles à risques variés puissent être traités différemment
  • Attribuer des rôles et responsabilités clairs, comme qui est responsable de déterminer si un modèle est biaisé, et qui est chargé d’assurer une transparence appropriée
  • Mettre en place des mesures de protection tout au long du cycle de vie d’un modèle d’IA, des premières étapes jusqu’à la validation, le déploiement et la production
  • Établir des critères pour déterminer quand un outil d’IA doit être évalué de façon indépendante, par exemple, pour répondre à de nouvelles réglementations dans une région donnée
  • Exiger une formation de base pour les employés chargés d’utiliser des outils d’IA
  • Établir des règles claires avec les fournisseurs et fournisseurs de modèles de base qui déterminent comment les données seront utilisées et déterminent qui est responsable dans différents types de scénarios

Adamson a conclu l’atelier en invitant les participants à partager leurs questions dans plusieurs domaines clés, notamment la conception d’IA générative, l’acquisition de données, le développement, le déploiement, la production et l’utilisation de fournisseurs tiers. La discussion qui a suivi portait sur l’évaluation des biais et l’équité; le risque d’empoisonnement des données; les défis de l’ajustement fin; à quoi ressemblent les tests appropriés pendant le développement; que faire lorsque votre fournisseur pour un modèle déployé tombe en panne; et l’importance de vérifier les fournisseurs tiers.

Tables rondes et tables rondes

Pour de nombreux participants, le panel et les tables rondes ont été le point fort de ce projet, car ils leur ont permis d’exprimer leurs idées et préoccupations sur l’IA générative et d’apprendre comment les autres pensent face à des défis similaires. Au cours de quatre jours, sur différents thèmes, les participants sont revenus à plusieurs reprises sur quatre sujets :

1. « La première règle de l’IA est de ne pas utiliser l’IA. »

Plusieurs conférenciers principaux, panélistes et participants ont souligné qu’il est beaucoup trop facile de se lancer et d’utiliser des outils d’IA générative sans trop réfléchir. Pour utiliser ces technologies de façon stratégique, il est essentiel de commencer par réfléchir de manière critique aux cas d’utilisation et de se demander pourquoi un outil d’IA donné devrait être utilisé avant l’adoption de toute technologie d’IA générative. Comme les participants l’ont souligné, l’IA générative introduit des incertitudes et des risques qui peuvent être évités avec d’autres outils, donc son utilisation doit être justifiée. Comme l’a dit un participant, « la première règle de l’IA est de ne pas utiliser l’IA. »

2. L’éducation et l’alphabétisation en IA sont essentielles

De nombreuses discussions ont eu lieu sur l’importance de l’éducation comme préoccupation centrale sous-jacente à la stratégie d’affaires en IA générative, à l’exécution technique et à la gouvernance. Le consensus qui s’est établi est que le secteur privé doit se concentrer sur l’amélioration de la littératie en IA à tous les niveaux, tant au sein des organisations que dans le grand public. Il ne s’agit pas seulement d’une compréhension abstraite, mais aussi d’un savoir-faire concret, a noté un participant. L’idée est de s’assurer que les gens sont suffisamment informés pour comprendre les risques et poser les bonnes questions concernant l’utilisation sécuritaire et appropriée de l’IA générative.

Un autre participant a souligné que beaucoup de gens ne comprennent pas que les chatbots d’IA générative sont essentiellement des machines à prédiction, ce qui signifie qu’ils ont du mal à anticiper où se situent les forces et faiblesses de la technologie. Les participants ont également lié la littératie IA à la réduction des risques. La formation pourrait se concentrer sur les principes liés aux risques liés à l’IA et couvrir des questions telles que la vie privée, la sécurité et les données. Comprendre la nature du risque de l’IA générative est essentiel pour prendre de bonnes décisions. Enfin, les participants ont discuté de l’éducation comme moyen d’atténuer les préoccupations des employés concernant l’utilisation de l’IA générative. Beaucoup étaient bien conscients que cette technologie pouvait entraîner une réduction des effectifs, certains étant laissés pour compte. Former les employés à utiliser l’IA générative de manière à accroître leur valeur pour l’entreprise peut être un moyen d’atténuer ces préoccupations.

3. L’adoption de l’IA signifie un changement organisationnel

Un autre enjeu largement débattu était le changement organisationnel nécessaire pour adopter des technologies d’IA puissantes. Un participant a dit que construire une preuve de concept est facile, mais que le défi réside dans la mise à l’échelle des solutions et leur intégration dans les processus de l’entreprise, car cela nécessite de changer la façon dont les équipes travaillent. Un autre participant a noté que les fonctions de gestion des risques et de conformité ne parlent pas le même langage que les scientifiques des données et les éthiciens — elles ont besoin d’un traducteur pour les mettre sur la même longueur d’onde. Les grandes organisations doivent travailler activement à travers différentes fonctions et unités pour bâtir un consensus et élaborer des principes et des lignes directrices pour une utilisation efficace et responsable de l’IA générative. 

Reconnaissant que l’adoption de l’IA axée sur les affaires fait face à une bataille ardue, certaines entreprises poursuivent déjà des changements organisationnels et culturels du haut vers le bas. Un participant a décrit comment leur entreprise a établi des règles et des garde-fous pour l’utilisation de l’IA générative. Ils ont formé un comité représentant des équipes de toute l’organisation qui utilise des critères largement approuvés pour approuver et guider l’utilisation de l’IA générative.

4. Ces conversations sont d’une importance vitale

La quatrième conclusion reflète l’importance de conversations larges et inclusives pour faire progresser l’utilisation de l’IA générative. Les participants ont dit qu’ils appréciaient le format des tables rondes parce qu’il leur permettait d’entendre comment les autres réagissent à ses défis. L’échange d’idées a permis aux participants de découvrir où d’autres organisations en sont sur la voie de l’adoption et de se faire une idée de ce que pourraient être leurs prochaines étapes. 

 Pour résumer la conférence de quatre jours, un participant a déclaré que des forums comme le projet de leadership d’opinion en IA générative sont nécessaires afin que les entreprises puissent parler d’une seule voix de leur investissement dans la confiance et la sécurité de l’IA. Plus les conversations sont diverses et inclusives, meilleure est leur capacité à communiquer au public l’engagement profond du secteur privé envers une IA responsable.

Alors, que faire ensuite?

En trois jours et demi, les participants au projet ont appris qu’adopter l’IA à l’aveugle sans approche stratégique ne suffit pas. Poser les questions difficiles, justifier l’utilisation de l’IA et s’assurer qu’il s’agit du bon outil pour la tâche est important. De plus, l’éducation est devenue une pièce angulaire de cette prochaine phase d’adoption : les organisations doivent renforcer la littératie en IA à tous les niveaux pour aider à gérer les risques. Et n’oublions pas qu’adopter l’IA de façon stratégique, ce n’est pas seulement jouer avec ChatGPT — adopter l’IA nécessite un changement organisationnel et de nouvelles façons de travailler entre équipes.

Les participants au sommet ont souligné l’importance des tables rondes de Vector, offrant une occasion de partager des expériences et de tracer collectivement le parcours d’adoption de l’IA. C’est pourquoi Vector invite les leaders de l’industrie, les organisations et les chercheurs à s’impliquer dans des projets collaboratifs qui vont au-delà de la discussion et à faire de l’adoption de l’IA responsable la norme. 

Apprenez des experts qui sont passés par là, soyez la voix qui façonne la confiance et la sécurité de l’IA, et avancez avec nous. Consultez la page des événements Vector pour de nouvelles occasions de participer à la conversation ou contactez-nous dès aujourd’hui info@Vectorinstitute.ai


1 Les entreprises participantes comprenaient BMO Financial Group, Google, NVIDIA, RBC, Scotiabank, TD Bank Group, Bell Canada, Boehringer Ingelheim (Canada) Ltd., Canadian Tire Corporation, Ltd., CIBC, KPMG Canada, OMERS, Sun Life Financial, TELUS, Linamar Corporation, CentML Inc. Private AI, Troj.AI, ainsi qu’un merci spécial à PwC Canada, qui a fourni un espace d’événement à Vector pour l’organisation de l’événement. De plus, six entreprises de Vector Fastlane — Armilla AI Inc., Eaigle Inc., Ethical AI Inc., Fairly AI Inc., GPTZero Inc., PredictNow Inc. — ont activement participé. Nos partenaires de l’écosystème comprenaient l’Association des banquiers canadiens, l’Association canadienne du marketing, GovTechON, l’Institut mondial des risques, la Commission du droit de l’Ontario et le Bureau du surintendant des institutions financières.

À lire aussi :

2026
Réflexions
Recherche
Recherche 2026

La nouvelle cartographie de l’invisible

Logo vectoriel
2025
Réflexions

Une nouvelle étude révèle l’impact économique de 100 milliards de dollars de l’IA à travers le Canada, avec l’Ontario en tête

2025
Réflexions
Partenariat
Histoires de réussite

Pourquoi le partenariat du leader bancaire en IA CIBC avec le Vector Institute continue de croître