Comment mettre à profit l’IA générative?
20 avril 2023
20 avril 2023
La publication publique de grands modèles de langage comme ChatGPT, Bard, et de générateurs texte en image comme DALL. E et Stable Diffusion ont soudainement mis ces puissants outils d’IA générative entre les mains de millions d’utilisateurs à travers le monde. Alors que les gens explorent le potentiel incroyable de ces outils pour le travail et la créativité, les chercheurs publics, industriels et en IA s’inquiètent de plus en plus quant à la façon dont ils transformeront nos vies.
Fin mars 2023, le Future of Life Institute (FLI) a publié « Pause Giant AI Experiments : An Open Letter », plaidant pour une suspension de six mois de « l’entraînement de systèmes IA plus puissants que GPT-4 ». La lettre a recueilli des milliers de signatures en quelques jours, y compris de certains chercheurs et leaders notables en IA dans le domaine – même quelques-uns qui étaient publiquement en désaccord avec certains aspects de la lettre.
La volonté croissante de construire des modèles d’IA générative de plus en plus grands et les préoccupations qui ont déclenché la lettre FLI se sont manifestées dans l’industrie technologique américaine. Au Canada, la Stratégie fédérale pancanadienne sur l’IA et une collaboration approfondie entre gouvernements, universités et industrie ont instauré un engagement constant à atténuer les risques et à utiliser cette technologie pour faire avancer le bien public. Nos gouvernements fédéral et provinciaux reconnaissent que l’investissement public et l’engagement sont essentiels au développement d’une IA fiable.
Alors, quels espoirs et préoccupations occupent les principaux chercheurs et entrepreneurs canadiens en IA générative?
Le 30 mars, l’Institut Vector a organisé la première d’une série de tables rondes réunissant des chercheurs de Vector avec des leaders d’entreprises axées sur l’IA pour discuter du potentiel et des risques de l’IA générative ainsi que de son impact sur l’avenir du travail. L’événement comprenait des tables rondes avec des membres du corps professoral de Vector et les présidents de l’intelligence artificielle du CIFAR Canada, Jimmy Ba et Alireza Makhzani, ainsi que des visionnaires issus de la communauté de commanditaires de Vector et d’autres grands développeurs d’IA à travers le Canada. Tout au long de la session, les discussions sont revenues sur le thème du développement et de l’utilisation responsables de l’IA générative, afin de réfléchir à la manière dont nous pouvons exploiter le vaste potentiel de cette technologie tout en atténuant les risques.
Dès le début, un enthousiasme palpable pour l’IA générative emplissait la pièce. Les participants ont noté que l’IA générative a déjà été déployée avec succès pour alimenter le marketing de contenu, les services de transcription et d’autres applications avant la récente explosion d’intérêt.
Bien qu’un certain nombre d’applications largement discutées aient émergé – comme la génération de contenu et le service à la clientèle – les participants ont noté certains cas d’utilisation émergents de l’IA générative, comme la création de musique et de vidéos à partir d’invites textuelles.
Il y avait aussi un fort intérêt pour l’idée de personnaliser et d’ajuster les modèles pour un usage individuel. Par exemple, un modèle privé et sécurisé entraîné sur vos propres données serait beaucoup plus utile pour rédiger des courriels qu’un chatbot universel. Un tel modèle pourrait automatiser des tâches banales pour nous, comme remplir des formulaires.
Un autre domaine clé de candidature considéré par les participants était l’éducation. Par exemple, les chatbots pourraient être conçus avec une expertise approfondie dans des sujets spécifiques et une forte aptitude à répondre aux questions et à expliquer des idées complexes. Le développement d’expériences conversationnelles enrichissantes et informatives pourrait mener à une vaste gamme d’applications inestimables, allant du tutorat aux écoliers à l’amélioration des compétences.
Du point de vue de la gestion, les participants ont aussi envisagé comment des tâches simples et chronophages pourraient être automatisées, libérant ainsi les employés pour qu’ils puissent consacrer plus de temps à des tâches de plus grande valeur qui ne sont pas facilement automatisées.
En discutant de leurs préoccupations communes concernant l’IA générative, les participants ont soulevé un large éventail de questions. Cela incluait le biais; hallucinations (c’est-à-dire la génération de faux contenu); violations de la vie privée; la susceptibilité des modèles au jailbreak, menant à du contenu nuisible; et l’abus de l’IA générative comme outil de propagande et de manipulation ou pour usurper l’identité d’individus.
Un thème récurrent abordé par les participants était la nature de l’IA générative fiable. Gagner la confiance des utilisateurs de modèles d’IA générative nécessite de vérifier leur fiabilité et leur efficacité. Par exemple, comme l’a dit un participant, nous voulons nous assurer que les médecins intégrant des modèles d’IA dans le diagnostic des patients reçoivent des informations et des directives précises.
En esquissant une voie vers une IA générative fiable, les participants ont discuté de solutions empiriques, telles que le partage de données sur les modèles et la possibilité d’audits par des tiers. Il y a aussi eu une forte recommandation aux entreprises travaillant avec l’IA générative de poursuivre l’autoréglementation avant la législation gouvernementale, comme prévu dans la Loi canadienne sur l’intelligence artificielle et les données.
Un autre thème qui a émergé concernait les préoccupations pratiques des entreprises qui développent et utilisent l’IA générative. Un participant a souligné que, puisque les entreprises dépendent généralement des services d’informatique en nuage, le coût d’offrir un produit basé sur l’IA générative dépend de l’utilisation. Un pic soudain d’utilisation peut rapidement devenir coûteux, surtout pour les entreprises qui n’ont pas encore monétisé.
La précision est un autre enjeu clé du point de vue des affaires. Les participants ont décrit qu’il est souvent facile pour les modèles d’atteindre une précision allant jusqu’à 90% rapidement. Cependant, une plus grande précision est essentielle pour de nombreuses applications, et obtenir des gains supplémentaires au-delà de 90% devient de plus en plus difficile à mesure qu’on avance.
En prenant une perspective plus large, les participants ont envisagé comment le déploiement de l’IA générative pourrait entraîner des changements importants dans les structures corporatives. L’IA générative pourrait changer la façon dont beaucoup de travaux sont réalisés, et les grandes organisations doivent être prêtes à s’adapter pour rester compétitives. Par exemple, un participant a décrit comment certaines entreprises peuvent évoluer vers une structure plus semblable à des collections dynamiques d’équipes contractant entre elles pour favoriser la création de produits et services. Le consensus était que, d’une manière ou d’une autre, une transition importante est à l’horizon, et qu’il sera essentiel de la gérer efficacement.
Avec ces préoccupations en tête, les participants ont discuté de la façon de penser les solutions et les opportunités dans un monde transformé par l’IA générative. Il y a des raisons d’espérer. L’attention massive qu’ont suscitée les modèles d’IA générative a suscité un examen minutieux et même ludique, par exemple grâce au développement rapide de l’ingénierie prompte et du jailbreak comme nouvelles formes d’expertise. Ces efforts spontanés nous ont aidés à comprendre les forces et les limites de l’IA générative, et à trouver des moyens de les améliorer.
Les participants attendaient avec impatience le développement de grands modèles de langage hautement spécialisés, entraînés sur des textes et des données spécifiques à un domaine, afin de rendre leurs résultats plus fiables pour une utilisation dans des professions spécifiques, comme le droit ou la médecine.
Une suggestion était d’aborder la fiabilité avant tout comme une question de conception de produit. L’idée est de traiter la question de la confiance au niveau particulier du système qui intègre un modèle d’IA, plutôt que de placer la responsabilité de la fiabilité sur le modèle lui-même. Notez l’idée sous-jacente ici : les modèles individuels d’IA générative, en eux-mêmes, ne devraient pas toujours être conçus comme le lieu de solution aux défis qu’ils introduisent.
Cette même intuition s’est manifestée dans deux autres recommandations faites par les participants : une recommandation était d’explorer de nouvelles façons de coordonner l’utilisation de plusieurs modèles travaillant ensemble, afin de contrer leurs faiblesses individuelles et d’obtenir de meilleurs résultats. L’autre recommandation était d’étudier comment l’IA peut être déployée pour superviser ou « surveiller » d’autres modèles d’IA et améliorer leur capacité à suivre, vérifier ou couvrir leurs résultats.
Tout au long de la discussion, les participants à cette première table ronde sur l’IA générative vectorielle ont souligné la nécessité de collaborer entre secteurs et industries pour rendre l’IA plus fiable. Cela pourrait prendre la forme de davantage de discussions rassemblant les leaders de l’industrie et les chercheurs, ainsi que de solutions concrètes, comme la création d’une plateforme dédiée pour que les entreprises travaillant avec l’IA générative puissent partager leurs recherches, livres blancs et résultats.
Ce qui en est ressorti est une idée prometteuse : le chemin le plus court vers une IA générative fiable avec des applications extraordinaires est pavé de collaboration ouverte et d’un échange sain d’idées.
L’Institut Vector s’engage pleinement à soutenir cet effort, à répondre dynamiquement aux besoins de la communauté croissante de l’IA au Canada et à défendre un développement et un déploiement responsables de l’IA. La meilleure façon d’atténuer les risques d’une IA puissante est de démocratiser ce pouvoir.
Lisez ici à propos de la deuxième table ronde de Vector sur l’IA générative.