Comment utiliser l'IA générative à bon escient ?

20 avril 2023

IA générative Perspectives

Les participants à une récente table ronde de l'Institut Vecteur sur l'IA générative ont discuté des risques et de l'immense potentiel de cette technologie tant vantée et ont proposé quelques idées novatrices pour la mettre en œuvre.

La diffusion publique de grands modèles linguistiques tels que ChatGPT et Bard, et de générateurs de texte à partir d'images tels que DALL.E et Stable Diffusion a soudainement mis ces puissants outils d'IA générative entre les mains de millions d'utilisateurs dans le monde entier. Alors que les gens explorent l'incroyable potentiel de ces outils pour le travail et la créativité, le public, l'industrie et les chercheurs en IA s'inquiètent de plus en plus de la façon dont ils vont transformer nos vies.

Fin mars 2023, le Future of Life Institute (FLI) a publié "Pause Giant AI Experiments : Une lettre ouverte", plaidant pour une interruption de six mois de "l'entraînement de systèmes d'IA plus puissants que le GPT-4". La lettre a recueilli des milliers de signatures en l'espace de quelques jours, y compris de la part d'éminents chercheurs en IA et de leaders dans le domaine - et même de quelques personnes qui ont exprimé publiquement leur désaccord avec certains aspects de la lettre.

L'accélération de la construction de modèles d'IA génératifs de plus en plus grands et les préoccupations qui ont déclenché la lettre de la FLI se sont manifestées dans l'industrie technologique américaine. Au Canada, la stratégie pancanadienne en matière d'IA et la collaboration étroite entre les gouvernements, les universités et l'industrie ont institué un engagement permanent à atténuer les risques et à utiliser cette technologie pour faire avancer le bien public. Nos gouvernements fédéral et provinciaux reconnaissent que l'investissement et l'engagement publics sont essentiels au développement d'une IA digne de confiance.

Quels sont donc les espoirs et les préoccupations des principaux chercheurs et entrepreneurs canadiens en IA générative ?

Le 30 mars, l'Institut Vecteur a organisé la première d'une série de tables rondes réunissant des chercheurs de Vecteur et des dirigeants d'entreprises axées sur l'IA pour discuter du potentiel et des risques de l'IA générative et de l'impact qu'elle aura sur l'avenir du travail. L'événement comprenait des discussions en groupe avec les membres du corps professoral de Vector et les chaires d'intelligence artificielle du CIFAR Canada, Jimmy Ba et Alireza Makhzani, ainsi qu'avec des visionnaires de la communauté des commanditaires de Vector et d'autres constructeurs d'IA de premier plan au Canada. Tout au long de la session, les discussions sont constamment revenues sur le thème du développement et de l'utilisation responsables de l'IA générative, afin de réfléchir à la manière dont nous pouvons exploiter le vaste potentiel de cette technologie tout en atténuant les risques.

Un potentiel immense

Dès le début, un enthousiasme palpable à l'égard de l'IA générative a envahi la salle. Les participants ont fait remarquer que l'IA générative avait déjà été déployée avec succès pour alimenter le marketing de contenu, les services de transcription et d'autres applications avant la récente explosion d'intérêt.

Alors qu'un certain nombre d'applications largement discutées ont été évoquées - telles que la génération de contenu et le service à la clientèle - les participants ont noté quelques cas d'utilisation émergents pour l'IA générative, tels que la création de musique et de vidéos à partir d'invites textuelles.

L'idée de personnaliser et d'affiner les modèles pour une utilisation individuelle a également suscité un vif intérêt. Par exemple, un modèle privé et sécurisé formé à partir de vos propres données serait bien plus utile pour rédiger des courriels qu'un chatbot universel. Un tel modèle pourrait automatiser des tâches banales, comme remplir des formulaires.

L'éducation est un autre domaine d'application privilégié par les participants. Par exemple, les chatbots pourraient être conçus avec une expertise approfondie sur des sujets spécifiques et une forte aptitude à répondre à des questions et à expliquer des idées complexes. Le développement d'expériences d'apprentissage conversationnel enrichissantes et informatives pourrait déboucher sur un large éventail d'applications inestimables, allant du tutorat des écoliers à la formation continue des professionnels.

Du point de vue de la gestion, les participants ont également examiné comment les tâches simples et fastidieuses pouvaient être automatisées, libérant ainsi les employés pour qu'ils consacrent plus de temps à des tâches de plus grande valeur qui ne sont pas facilement automatisables.

Les risques sont réels

Lors de l'examen de leurs préoccupations communes concernant l'IA générative, les participants ont soulevé un large éventail de questions. Il s'agit notamment de la partialité, de l'hallucination (c'est-à-dire de la génération de faux contenus), des violations de la vie privée, de la susceptibilité des modèles au "jailbreaking" qui entraîne un contenu nuisible, et de l'utilisation abusive de l'IA générative comme outil de propagande et de manipulation ou pour usurper l'identité d'une personne. 

L'un des thèmes récurrents abordés par les participants était la nature de l'IA générative digne de confiance. Pour gagner la confiance des utilisateurs de modèles d'IA générative, il faut vérifier leur fiabilité et leur efficacité. Par exemple, comme l'a dit un participant, nous voulons nous assurer que les médecins qui utilisent des modèles d'IA pour le diagnostic des patients obtiennent des informations et des conseils exacts.

Esquissant une voie vers une IA générative digne de confiance, les participants ont discuté de solutions empiriques, telles que le partage de données sur les modèles et l'autorisation d'audits par des tiers. Il a également été fortement recommandé aux entreprises travaillant avec l'IA générative de rechercher l'autorégulation avant toute législation gouvernementale, comme celle envisagée dans la proposition de loi canadienne sur l'intelligence artificielle et les données.

Un autre thème qui a émergé concerne les préoccupations pratiques des entreprises qui développent et utilisent l'IA générative. Un participant a fait remarquer que, comme les entreprises s'appuient généralement sur des services d'informatique en nuage, le coût de l'offre d'un produit basé sur l'IA générative dépend de l'utilisation. Une hausse soudaine de l'utilisation peut rapidement devenir coûteuse, en particulier pour les entreprises qui n'ont pas encore monétisé leurs produits.

La précision est une autre question clé du point de vue de l'entreprise. Les participants ont expliqué qu'il est souvent facile pour les modèles d'atteindre rapidement une précision de 90 %. Cependant, une plus grande précision est essentielle pour de nombreuses applications, et il devient de plus en plus difficile d'obtenir des gains supplémentaires au-delà de 90 %.

Dans une perspective plus large, les participants ont examiné comment le déploiement de l'IA générative pourrait conduire à des changements significatifs dans les structures des entreprises. L'IA générative pourrait changer la manière dont une grande partie du travail est effectuée, et les grandes organisations doivent être prêtes à s'adapter pour rester compétitives. Par exemple, un participant a décrit comment certaines entreprises pourraient se structurer davantage comme des ensembles dynamiques d'équipes contractant les unes avec les autres pour mener à bien la création de produits et de services. Le consensus était que, d'une manière ou d'une autre, une transition importante se profile à l'horizon et qu'il sera essentiel de la gérer efficacement.

L'IA générative que nous pouvons utiliser

En gardant ces préoccupations à l'esprit, les participants ont discuté de la manière d'envisager les solutions et les opportunités dans un monde transformé par l'IA générative. Il y a des raisons d'espérer. L'attention massive que les modèles d'IA générative ont suscitée a entraîné un examen minutieux et même ludique, par exemple, grâce au développement rapide de l'ingénierie rapide et du jailbreaking en tant que nouvelles formes d'expertise. Ces efforts spontanés nous ont aidés à comprendre les forces et les limites de l'IA générative et à trouver des moyens de les améliorer.

Les participants attendent avec impatience le développement de grands modèles de langage hautement spécialisés, formés sur des textes et des données spécifiques à un domaine, afin de rendre leurs résultats plus fiables pour une utilisation dans des professions spécifiques, telles que le droit ou la médecine.

Il a été suggéré d'aborder la question de la fiabilité avant tout comme une question de conception de produit. L'idée est d'aborder la question de la confiance au niveau particulier du système qui intègre un modèle d'IA plutôt que de faire reposer la responsabilité de la fiabilité sur le modèle lui-même. L'idée sous-jacente est la suivante : les modèles génératifs individuels d'IA ne doivent pas toujours être considérés comme le point de départ d'une solution aux problèmes qu'ils posent.

Cette même idée est apparue dans deux autres recommandations formulées par les participants : l'une d'entre elles consistait à explorer de nouveaux moyens de coordonner l'utilisation de plusieurs modèles travaillant ensemble, afin de contrebalancer leurs faiblesses individuelles et d'obtenir de meilleurs résultats. L'autre recommandation consiste à étudier comment l'IA peut être déployée pour superviser ou "surveiller" d'autres modèles d'IA et améliorer leur capacité à suivre, vérifier ou couvrir leurs résultats. 

Tout au long de la discussion, les participants à cette première table ronde Vector sur l'IA générative ont souligné la nécessité d'une collaboration entre les secteurs et les industries pour rendre l'IA plus digne de confiance. Cette collaboration pourrait prendre la forme d'un plus grand nombre de discussions réunissant les leaders de l'industrie et les chercheurs, et de solutions pratiques, telles que la création d'une plateforme dédiée aux entreprises travaillant avec l'IA générative afin de partager leurs recherches, leurs livres blancs et leurs résultats.

Il en est ressorti une idée prometteuse : le chemin le plus court vers une IA générative digne de confiance et dotée d'applications extraordinaires est pavé d'une collaboration ouverte et d'un échange sain d'idées. 

L'Institut Vecteur s'engage pleinement à soutenir cet effort, à répondre de manière dynamique aux besoins de la communauté croissante de l'IA au Canada et à plaider en faveur d'un développement et d'un déploiement responsables de l'IA. La meilleure façon d'atténuer les risques liés à la puissance de l'IA est de démocratiser ce pouvoir.

Pour en savoir plus sur la deuxième table ronde de Vector sur l'IA générative, cliquez ici.

En rapport :

Homme tapant sur son ordinateur portable
IA générative

Comment les entreprises peuvent-elles concilier l'innovation en matière d'IA et la cybersécurité ?

Trois personnes regardent fixement un ordinateur portable portant un logo Vector.
IA générative
Recherche

Évaluation comparative de Grok-1 de xAI

Un homme regarde un tableau blanc sur lequel sont inscrites des formules en rouge.
Perspectives
Une IA digne de confiance

Comment mettre en œuvre des systèmes d'IA en toute sécurité