Les protocoles standardisés sont essentiels au déploiement responsable des modèles de langage
3 mai 2024
3 mai 2024
Par Ian Gormely
Il y a un besoin pressant de protocoles standardisés pour les modèles de langage (LM) afin qu’ils soient déployés de manière responsable dans des scénarios réels. C’était l’opinion consensuelle d’un panel d’experts lors de l’atelier Responsible Language Models (ReLM). L’événement a eu lieu lors de la conférence de cette année de l’Association pour l’avancement de l’intelligence artificielle (AAAI) à Vancouver.
L’atelier d’une journée, que Vector a aidé à organiser, portait sur le développement, la mise en œuvre et les applications responsables des LM, y compris les grands modèles de langage (LLM) qui alimentent des chatbots comme ChatGPT. L’atelier a offert des perspectives précieuses sur la création et l’utilisation éthiques des LM, abordant des enjeux critiques comme la réduction des biais et la transparence, et a souligné l’importance d’établir des lignes directrices solides pour la mise en œuvre éthique de ces technologies.
Le panel, « Combler l’écart : déploiement responsable de modèles de langage dans l’industrie et le milieu universitaire », réunissait Antoaneta Vladimirova, responsable de l’IA médicale appliquée chez Roche; Donny Cheung, responsable IA des soins de santé et des sciences de la vie chez Google Cloud; Emre Kiciman, directeur principal principal de la recherche chez Microsoft Research; Eric Jiawei He, chef de l’équipe de recherche en apprentissage automatique chez Borealis AI; et Jiliang Tang, professeure University Foundation au département d’informatique et de génie de la Michigan State University. Il a été animé par Peter Lewis de l’Université Ontario Tech.
Les panélistes ont souligné que la dépendance croissante aux LM pour diverses applications souligne la nécessité de protocoles standardisés. Sans eux, le déploiement de LM pourrait entraîner des conséquences imprévues qui pourraient miner la confiance du public envers les technologies d’IA.
Filippo Menczer, professeur distingué Luddy d’informatique et d’informatique à l’Université de l’Indiana, a prononcé la conférence principale intitulée « IA et manipulation des médias sociaux : le bon, le mauvais et le laid ». Il offrait une analyse approfondie de la dynamique de la prolifération de l’information et de la désinformation sur les réseaux sociaux.
Menczer a présenté des techniques analytiques et de modélisation sophistiquées qui nous aident à comprendre les schémas par lesquels l’information vraie ou fausse se propage. Il a également introduit divers outils alimentés par l’IA conçus pour lutter contre la propagation de la désinformation. Il a souligné que, bien que l’IA offre des solutions innovantes pour détecter et contrer la désinformation, ces technologies comportent aussi des risques potentiels. Les capacités permettant d’identifier et d’atténuer les fausses informations peuvent également être détournées pour améliorer l’efficacité de ces informations. Il a souligné la nature à double tranchant de l’IA dans ce contexte, soulignant que les mêmes outils qui peuvent aider à protéger notre écosystème informationnel peuvent aussi le compliquer et poser des défis à son intégrité. Les analyses de Menczer mettent en lumière l’équilibre crucial nécessaire pour développer des outils d’IA efficaces contre les abus, soulignant l’importance des conséquences imprévues dans le déploiement des technologies d’IA.
Parmi les six conférenciers invités à l’atelier figurait Frank Rudzicz, membre du corps professoral de Vector, qui a abordé les défis de la reproductibilité dans le développement de modèles de langage lors de sa présentation, « Quis custodiet ipsos custodes? » Il a souligné les défis posés par les méthodes dominantes de développement de modèles de langage afin d’assurer leur fiabilité et leur prévisibilité. Rudzicz a précisé que ce manque de transparence et de cohérence peut nuire à la validation et à la réplication scientifiques. Il a souligné l’importance d’adopter des pratiques plus robustes et ouvertes pour atténuer ces problèmes, plaidant pour une plus grande reddition de comptes et de standardisation dans le domaine afin de garantir que les modèles de langage soient à la fois efficaces et dignes de confiance. Ses analyses ont contribué à un débat plus large sur la nécessité de normes éthiques et de méthodologies rigoureuses pour faire progresser l’IA.
Parmi les 40 communications soumises à l’atelier, 21 ont été acceptées, dont six présentations en vedette et 15 affiches. « Breaking Free Transformer Mod els : Task-specific Context Attribut Promises Improved Generalizability Without Fine-tuning Pre-trained LLM » a remporté le prix du meilleur article de l’atelier, tandis que « Inverse Prompt Engineering for Safety in Large Language Models » a été finaliste.