Des protocoles normalisés sont essentiels pour un déploiement responsable des modèles linguistiques

3 mai 2024

Perspectives Grands modèles linguistiques

Par Ian Gormely

Il existe un besoin pressant de protocoles normalisés pour les modèles de langage (ML) afin qu'ils puissent être déployés de manière responsable dans des scénarios réels. C'est l'avis consensuel d'un groupe d'experts lors de l'atelier sur les modèles de langage responsables (ReLM). Cet événement s'est déroulé dans le cadre de la conférence de l'Association for the Advancement of Artificial Intelligence (AAAI) qui s'est tenue cette année à Vancouver. 

L'atelier d'une journée, que Vector a contribué à organiser, était axé sur le développement, la mise en œuvre et les applications responsables des LM, y compris les grands modèles de langage (LLM) qui alimentent les chatbots tels que ChatGPT. L'atelier a fourni des informations précieuses sur la création et l'utilisation éthiques des LM, en abordant des questions critiques telles que la réduction des biais et la transparence, et a souligné l'importance d'établir des lignes directrices solides pour la mise en œuvre éthique de ces technologies.

Le panel, intitulé "Bridging the Gap : Responsible Language Model Deployment in Industry and Academia", comprenait Antoaneta Vladimirova, Applied Medical AI Lead at Roche ; Donny Cheung, Healthcare and Life Sciences AI Lead at Google Cloud ; Emre Kiciman, Senior Principal Research Manager at Microsoft Research ; Eric Jiawei He, Machine Learning Research Team Lead at Borealis AI ; et Jiliang Tang, University Foundation Professor in the Department of Computer Science and Engineering at Michigan State University. La conférence a été animée par Peter Lewis de l'Université technique de l'Ontario.

Les panélistes ont souligné que la dépendance croissante à l'égard des LM pour diverses applications met en évidence la nécessité de protocoles normalisés. Sans cela, le déploiement des LM pourrait avoir des conséquences inattendues susceptibles d'ébranler la confiance du public dans les technologies de l'IA.

Comment la désinformation se propage-t-elle en ligne ?

Filippo Menczer, Luddy Distinguished Professor of Informatics and Computer Science à l'Université de l'Indiana, a prononcé le discours d'ouverture intitulé "AI and Social Media Manipulation : Le bon, la brute et le truand". Il a fait une plongée profonde dans la dynamique de la prolifération de l'information et de la désinformation sur les réseaux sociaux.

M. Menczer a présenté des techniques d'analyse et de modélisation sophistiquées qui nous aident à comprendre les schémas par lesquels les informations vraies et fausses se propagent. Il a également présenté divers outils alimentés par l'IA et conçus pour lutter contre la propagation de la désinformation. Il a souligné que si l'IA offre des solutions innovantes pour détecter et contrer la désinformation, ces technologies comportent également des risques potentiels. Les capacités qui permettent d'identifier et d'atténuer les fausses informations peuvent également être utilisées à mauvais escient pour renforcer l'efficacité de ces informations. Il a souligné la nature à double tranchant de l'IA dans ce contexte, en faisant remarquer que les mêmes outils qui peuvent contribuer à protéger notre écosystème d'information peuvent également le compliquer et remettre en cause son intégrité. Les réflexions de M. Menczer ont mis en lumière l'équilibre critique nécessaire au développement d'outils d'IA efficaces contre les utilisations abusives, soulignant l'importance des conséquences involontaires dans le déploiement des technologies d'IA.

Le manque de transparence entrave la reproduction

Parmi les six orateurs invités à l'atelier, Frank Rudzicz, membre de la faculté Vector, s'est penché sur les défis de la reproductibilité dans le développement de modèles linguistiques lors de sa présentation intitulée "Quis custodiet ipsos custodes ?". Il a souligné les défis posés par les méthodes actuelles de développement des modèles linguistiques pour garantir leur fiabilité et leur prévisibilité. M. Rudzicz a expliqué que ce manque de transparence et de cohérence peut entraver la validation et la reproduction scientifiques. Il a souligné l'importance d'adopter des pratiques plus robustes et plus ouvertes pour atténuer ces problèmes, en plaidant pour une plus grande responsabilité et une plus grande normalisation dans le domaine afin de garantir que les modèles linguistiques sont à la fois efficaces et dignes de confiance. Ses idées ont contribué à une discussion plus large sur la nécessité de normes éthiques et de méthodologies rigoureuses pour faire progresser l'IA.

Sur les 40 documents soumis à l'atelier, 21 ont été acceptés, dont six présentations sous les feux de la rampe et 15 affiches. "Breaking Free Transformer Mod els : Task-specific Context Attribution Promises Improved Generalizability Without Fine-tuning Pre-trained LLMs" a remporté le prix du meilleur article de l'atelier, tandis que "Inverse Prompt Engineering for Safety in Large Language Models" s'est classé deuxième.

En rapport :

Vector Membre de la faculté Gautam Kamath
Perspectives
Recherche

Gautam Kamath, chercheur spécialisé dans les vecteurs, analyse les derniers développements en matière de robustesse et de protection de la vie privée.

Un homme regarde un tableau blanc sur lequel sont inscrites des formules en rouge.
Perspectives
Une IA digne de confiance

Comment mettre en œuvre des systèmes d'IA en toute sécurité

Deux personnes jouant aux échecs
Perspectives
Recherche

Blogue de Vector Research : Votre réseau neuronal est-il en danger ? Le piège des optimiseurs de gradient adaptatifs