Les chercheurs de Vector s'attaquent aux défis de l'IA dans le monde réel à l'occasion de l'ICML 2025

10 juillet 2025

2025 Recherche Recherche 2025

Les principaux chercheurs de Vector présentent leurs travaux de pointe à la Conférence internationale sur l'apprentissage automatique (ICML) de cette année, qui se tient du 13 au 19 juillet 2025 à Vancouver, au Canada, ainsi que sur des plateformes virtuelles. Avec une variété d'articles acceptés, les chercheurs de Vector s'attaquent à certains des défis les plus pressants de l'intelligence artificielle, qu'il s'agisse de rendre les systèmes d'IA plus sûrs et plus fiables ou de développer de nouveaux outils pour les soins de santé et la surveillance de l'environnement.

Vous trouverez ci-dessous 45 articles et séances d'affichage acceptés, rédigés par des membres du corps professoral de Vector, des membres affiliés du corps professoral de Vector et des boursiers postdoctoraux émérites de Vector. Les articles marqués d'un astérisque (*) sont sous les feux de la rampe.

Élicitation adaptative d'informations latentes à l'aide du langage naturel

Jimmy Wang, Tom Zollo, Richard Zemel (membre de la faculté Vector), Hongseok Namkoong

Résumé

L'obtention d'informations pour réduire l'incertitude sur une entité latente est une compétence essentielle dans de nombreux domaines d'application, par exemple l'évaluation des résultats d'apprentissage des étudiants, le diagnostic des maladies sous-jacentes ou l'apprentissage des préférences des utilisateurs.Bien que le langage naturel soit un moyen puissant à cette fin, les grands modèles de langage (LLM) et les algorithmes de réglage fin existants manquent de mécanismes pour recueillir stratégiquement des informations afin d'affiner leur propre compréhension de l'entité latente.Nous proposons un cadre d'élicitation adaptatif qui réduit activement l'incertitude sur l'entité latente en simulant des réponses contrefactuelles. Comme la modélisation probabiliste d'une entité latente abstraite est difficile, nous validons et affinons les méthodes de quantification de l'incertitude basées sur le LLM en utilisant la perplexité sur les observations futures masquées produites par l'entité latente.Notre cadre permet le développement de stratégies sophistiquées de collecte d'informations, et nous démontrons sa polyvalence à travers des expériences sur le sondage d'opinion dynamique et l'évaluation adaptative des étudiants.

Résumé

Nous proposons un cadre pour l'utilisation des LLM afin de poser des questions informatives sur les variables et les entités qui ne peuvent pas être observées directement. Parmi les applications potentiellement intéressantes, on peut citer la construction d'un questionnaire de diagnostic dynamique qui maximise les informations obtenues sur la santé d'un patient ou la génération d'un ensemble personnalisé de questions d'examen qui donnent le plus d'indications sur les besoins d'apprentissage d'un étudiant.

AutoElicit : Utilisation de grands modèles de langage pour l'élicitation d'antécédents par des experts en modélisation prédictive

Alexander Capstick, Rahul G. Krishnan (membre de la faculté Vector), Payam Barnaghi

Résumé

Les grands modèles de langage (LLM) permettent d'acquérir une grande quantité d'informations dans divers domaines. Cependant, leur complexité informatique, leur coût et leur manque de transparence empêchent souvent leur application directe à des tâches prédictives où la confidentialité et l'interprétabilité sont primordiales. Dans des domaines tels que les soins de santé, la biologie et la finance, les modèles linéaires spécialisés et interprétables conservent une valeur considérable. Dans ces domaines, les données étiquetées peuvent être rares ou coûteuses à obtenir. Des distributions préalables bien spécifiées sur les paramètres du modèle peuvent réduire la complexité d'échantillonnage de l'apprentissage par inférence bayésienne ; cependant, l'obtention de prières d'experts peut prendre beaucoup de temps. Nous introduisons donc AutoElicit pour extraire la connaissance des LLMs et construire des priors pour les modèles prédictifs. Nous montrons que ces prieurs sont informatifs et peuvent être affinés à l'aide du langage naturel. Nous réalisons une étude minutieuse comparant AutoElicit à l'apprentissage en contexte et démontrons comment effectuer une sélection de modèle entre les deux méthodes. Nous constatons qu'AutoElicit produit des prieurs qui peuvent réduire considérablement l'erreur par rapport aux prieurs non informatifs, en utilisant moins d'étiquettes, et qu'il surpasse systématiquement l'apprentissage en contexte. Nous montrons qu'AutoElicit permet d'économiser plus de 6 mois d'efforts d'étiquetage lors de la construction d'un nouveau modèle prédictif pour les infections urinaires à partir d'enregistrements de capteurs de personnes atteintes de démence.

Résumé

Dans ce travail, nous proposons AutoElicit, une méthode d'utilisation des LLM pour aider les tâches de modélisation prédictive, en mettant l'accent sur les soins de santé. Plus précisément, nous présentons une méthode d'utilisation des LLM pour obtenir des distributions préalables d'experts pour les modèles prédictifs linéaires et nous démontrons comment les experts humains peuvent aider le processus. Nous comparons ensuite les prédictions a posteriori avec celles obtenues par l'apprentissage en contexte, où les modèles de langage font des prédictions directement. En utilisant les données de notre étude sur la démence, nous montrons qu'AutoElicit permet d'économiser plus de 6 mois d'efforts d'étiquetage lors de la construction d'un nouveau modèle prédictif pour les infections des voies urinaires à partir des enregistrements des capteurs des participants.

L'effet papillon : Les trajectoires de formation des réseaux neuronaux sont très sensibles aux conditions initiales

Gül Sena Altıntaş, Devin Kwok, Colin Raffel (membre de la faculté Vector), David Rolnick

Résumé

L'apprentissage des réseaux neuronaux est intrinsèquement sensible à l'initialisation et au caractère aléatoire induit par la descente stochastique du gradient. Cependant, il n'est pas clair dans quelle mesure ces effets conduisent à des réseaux significativement différents en termes de poids des modèles ou des fonctions sous-jacentes qui ont été apprises. Dans ce travail, nous montrons que pendant une phase "chaotique" initiale, une perturbation extrêmement faible fait diverger de manière fiable des trajectoires d'apprentissage par ailleurs identiques - un effet qui diminue rapidement avec le temps d'apprentissage. Nous quantifions cette divergence par (i) la distance $L^2$ entre les paramètres, (ii) la similarité des vecteurs de paramètres mesurée par l'alignement des permutations et, surtout, (iii) la barrière de perte lors de l'interpolation entre les réseaux, révélant comment les perturbations à travers différents hyperparamètres ou réglages fins conduisent les trajectoires d'apprentissage vers des minima de perte distincts. Nos résultats donnent un aperçu de la stabilité de l'apprentissage des réseaux neuronaux, avec des implications pratiques pour les techniques de réglage fin et de fusion de modèles.

Résumé

En raison du bruit, deux réseaux neuronaux formés à partir du même point de départ aléatoire peuvent apprendre l'une des nombreuses solutions différentes au même problème, alors que les réseaux préformés ont tendance à apprendre la même solution. Ce que nous ne savons pas, c'est quand et comment les réseaux passent de l'apprentissage de solutions différentes à celui de la même solution ? Pour répondre à cette question, nous formons deux copies jumelles de réseaux neuronaux exactement de la même manière, mais nous ajoutons un changement minuscule (perturbation) à l'une des copies pendant la formation. Nous constatons que pour les réseaux dont les points de départ sont aléatoires, même le plus petit changement (bien plus petit que les effets aléatoires typiques) entraîne l'apprentissage de solutions différentes, alors que les réseaux pré-entraînés n'apprennent des solutions différentes que lorsque des changements bien plus importants que les effets aléatoires sont appliqués. Nos résultats sont importants car nous devons souvent recycler et combiner les connaissances de plusieurs réseaux énormes (tels que les grands modèles de langage). Comme certaines méthodes fonctionnent mieux avec des solutions similaires qu'avec des solutions différentes, nous pouvons adapter nos méthodes de recyclage ou de combinaison de modèles pour mieux cibler chaque cas.

Apprentissage de modèles calibrés et conscients de la valeur avec des modèles d'environnement probabilistes

Claas Voelcker, Anastasiia Pedan, Arash Ahmadian, Romina Abachi, Igor Gilitschenski (affilié à la faculté Vector), Amir-massoud Farahmand (affilié à la faculté Vector)

Résumé

L'idée de l'apprentissage de modèles conscients de la valeur, selon laquelle les modèles devraient produire des estimations de valeur précises, a pris de l'importance dans l'apprentissage par renforcement basé sur des modèles. La perte MuZero, qui pénalise la prédiction de la fonction de valeur d'un modèle par rapport à la fonction de valeur réelle, a été utilisée dans plusieurs travaux empiriques importants de la littérature. Toutefois, l'étude théorique de ses forces et de ses faiblesses est limitée. Dans cet article, nous analysons la famille des pertes d'apprentissage de modèle tenant compte de la valeur, qui comprend la perte populaire MuZero. Nous montrons que ces pertes, telles qu'elles sont normalement utilisées, sont des pertes de substitution non calibrées, ce qui signifie qu'elles ne récupèrent pas toujours le modèle et la fonction de valeur corrects. Sur la base de cette constatation, nous proposons des corrections pour résoudre ce problème. En outre, nous étudions l'interaction entre la calibration des pertes, les architectures de modèles latents et les pertes auxiliaires couramment employées lors de la formation d'agents de type MuZero. Nous montrons que si les modèles déterministes peuvent suffire à prédire des valeurs exactes, l'apprentissage de modèles stochastiques calibrés reste avantageux.

Résumé

Cet article analyse l'apprentissage par modèle conscient de la valeur (VAML), y compris la perte MuZero, dans l'apprentissage par renforcement basé sur un modèle. Les pertes basées sur le VAML entraînent un modèle à prédire des estimations précises de la valeur d'une action dans chaque état, au lieu de l'entraîner à prédire les états eux-mêmes avec précision.

Apprentissage par renforcement distributionnel catégorique avec la divergence de Kullback-Leibler : Convergence et asymptotique

Tyler Kastner, Mark Rowland, Yunhao Tang, Murat Erdogdu (membre de la faculté Vector), Amir-massoud Farahmand (affilié à la faculté Vector)

Résumé

Nous étudions le problème de l'apprentissage par renforcement distributionnel à l'aide de paramétrisations catégorielles et d'une perte de divergence KL. Les travaux antérieurs analysant l'apprentissage par renforcement distributionnel catégorique l'ont fait en utilisant une perte basée sur la distance de Cramér, ce qui simplifie l'analyse mais crée un fossé entre la théorie et la pratique. Nous introduisons une version préconditionnée de l'algorithme et prouvons que sa convergence est garantie. Nous dérivons ensuite la variance asymptotique des estimations catégorielles sous différents régimes de taux d'apprentissage, nous la comparons à celle de l'apprentissage par renforcement classique et nous analysons comment ces mises à jour sont affectées dans le cadre de l'approximation de la fonction linéaire. Enfin, nous validons empiriquement nos résultats et effectuons une recherche empirique sur les forces relatives de l'utilisation des pertes KL, et nous en tirons un certain nombre d'enseignements utiles pour les praticiens.

Résumé

Une approche populaire de l'apprentissage par renforcement profond consiste à utiliser des pertes de classification pour apprendre l'éventail des résultats futurs possibles. Les travaux théoriques antérieurs qui étudient cet algorithme modifient la perte utilisée afin de simplifier l'analyse, mais cela crée un fossé entre la théorie et la pratique. Dans ce travail, nous étudions directement ces algorithmes d'apprentissage avec la perte de classification utilisée dans la pratique, la divergence KL. Nous montrons qu'avec quelques modifications de la dynamique (l'utilisation d'une matrice de préconditionnement), les mises à jour convergent de manière prouvée. Nous étudions également l'efficacité de ces méthodes par rapport à l'apprentissage par renforcement standard, et nous prouvons des résultats sur la variance exacte de ces algorithmes à l'approche de la convergence. Tout au long de notre analyse, nous obtenons un certain nombre d'informations précieuses pour tous ceux qui utilisent ces méthodes dans la pratique, comme la manière de modifier le taux d'apprentissage utilisé lorsque l'on change le nombre d'atomes (un hyperparamètre distinct), et la manière dont le nombre et l'emplacement de ces atomes affectent l'erreur encourue.

Réseaux neuronaux à graphe de commutation

Wei Zhuo, Han Yu, Guang Tan, Xiaoxiao Li (membre de la faculté Vector)

Résumé

Les réseaux neuronaux graphiques (GNN) ont fait preuve d'un succès remarquable dans l'apprentissage à partir de données structurées en graphes. Cependant, leur application aux graphes dirigés (digraphes) présente des défis uniques, principalement en raison de l'asymétrie inhérente aux relations entre les nœuds. Les GNN traditionnels sont aptes à capturer les relations unidirectionnelles mais ne parviennent pas à encoder les dépendances mutuelles entre les nœuds, telles que les chemins les plus courts asymétriques que l'on trouve généralement dans les digraphes. Conscients de cette lacune, nous présentons **C**ommute **G**raph **N**eural **N**etworks (CGNN), une approche qui intègre de manière transparente le temps de passage d'un nœud à l'autre dans le schéma de transmission de messages. La pierre angulaire du CGNN est une méthode efficace de calcul du temps de transit à l'aide d'un laplacien digraphique nouvellement formulé. Le temps de trajet est ensuite intégré dans le processus d'agrégation du voisinage, les contributions des voisins étant pondérées en fonction de leur temps de trajet respectif jusqu'au nœud central dans chaque couche. Cela permet au CGNN de capturer directement les relations mutuelles et asymétriques dans les digraphes. Des expériences approfondies confirment les performances supérieures de CGNN. Le code source de CGNN est disponible ici de manière anonyme.

Résumé

De nombreux GNN traitent les graphes dirigés (digraphes) comme des collections d'arêtes à sens unique, de sorte qu'ils ne parviennent pas à capturer la connectivité asymétrique aller-retour qui détermine en fait l'intensité de l'interaction entre deux nœuds. Cette limitation est évidente dans les médias sociaux, où un fan peut instantanément atteindre une célébrité, alors que l'interaction en retour se produit rarement. Nous introduisons les réseaux neuronaux à graphe de commutation (CGNN) pour modéliser explicitement cette asymétrie. Ces réseaux s'appuient sur un nouveau laplacien digraphique (DiLap) couplé à un recâblage léger des graphes basé sur les caractéristiques. Cela garantit la rareté et l'irréductibilité, facilitant le calcul efficace des temps de parcours déterministes, définis comme le nombre attendu d'étapes d'une marche aléatoire d'un nœud à un autre et vice-versa. Ces temps de parcours servent à pondérer les messages des voisins, ce qui permet aux nœuds mutuellement accessibles d'exercer une plus grande influence lors de l'agrégation. Le temps de parcours capture naturellement les interactions mutuelles réalistes, telles que la dynamique follower-célébrité dans les médias sociaux ou le trafic web bidirectionnel. Par conséquent, le CGNN fournit un cadre plus précis, plus facile à interpréter et plus largement applicable pour l'apprentissage à partir de réseaux dirigés.

Un cadre global pour l'analyse de la convergence d'Adam : combler le fossé avec SGD

Ruinan Jin, Xiao Li, Yaoliang Yu (membre de la faculté Vector), Baoxiang Wang

Résumé

L'estimation adaptative des moments (Adam) est un algorithme d'optimisation fondamental dans l'apprentissage profond, largement reconnu pour sa flexibilité avec des taux d'apprentissage adaptatifs et son efficacité dans le traitement de données à grande échelle. Cependant, malgré son succès pratique, la compréhension théorique de la convergence d'Adam a été limitée par des hypothèses strictes, telles que des gradients stochastiques presque sûrement limités ou des gradients uniformément limités, qui sont plus restrictives que celles généralement requises pour analyser la descente de gradient stochastique (SGD).Dans cet article, nous introduisons un cadre nouveau et complet pour analyser les propriétés de convergence d'Adam. Ce cadre offre une approche polyvalente pour établir la convergence d'Adam. Plus précisément, nous prouvons qu'Adam atteint une convergence asymptotique (au sens du dernier itéré) à la fois au sens presque sûr et au sens \(L_1\) sous les hypothèses relâchées généralement utilisées pour la SGD, à savoir la régularité \(L_1\) et l'inégalité ABC. Parallèlement, sous les mêmes hypothèses, nous montrons qu'Adam atteint des limites de complexité d'échantillon non asymptotiques similaires à celles de SGD.

Résumé

Adam est l'une des méthodes d'optimisation les plus populaires utilisées pour former des modèles d'apprentissage profond. Elle fonctionne bien dans la pratique car elle peut ajuster automatiquement la vitesse d'apprentissage pendant la formation. Cependant, jusqu'à présent, comprendre exactement quand et pourquoi Adam fonctionne nécessitait des hypothèses mathématiques très fortes et souvent irréalistes. Dans cet article, nous présentons un nouveau cadre théorique qui montre qu'Adam peut réussir dans des conditions beaucoup plus détendues et pratiques, semblables à celles nécessaires pour analyser l'algorithme plus basique SGD (descente de gradient stochastique). Nos résultats montrent qu'Adam n'est pas seulement performant dans la pratique, mais qu'il présente également de solides garanties théoriques, ce qui permet de combler le fossé entre son succès empirique et sa compréhension formelle. Ce travail peut également aider les chercheurs à analyser plus facilement d'autres méthodes d'optimisation similaires.

Gardien confidentiel : Interdire de manière cryptographique l'abus de l'abstention de modèle

Stephan Rabanser, Ali Shahin Shamsabadi, Olive Franzese, Xiao Wang, Adrian Weller, Nicolas Papernot (membre de la faculté Vector)

Résumé

Les prédictions prudentes - où un modèle d'apprentissage automatique s'abstient en cas d'incertitude - sont cruciales pour limiter les erreurs préjudiciables dans les applications critiques pour la sécurité. Dans ce travail, nous identifions une nouvelle menace : une institution malhonnête peut exploiter ces mécanismes pour discriminer ou refuser injustement des services sous le couvert de l'incertitude. Nous démontrons l'aspect pratique de cette menace en introduisant une attaque induisant l'incertitude, appelée Mirage, qui réduit délibérément la confiance dans des régions d'entrée ciblées, désavantageant ainsi secrètement des individus spécifiques. Dans le même temps, Mirage maintient une performance prédictive élevée pour tous les points de données. Pour contrer cette menace, nous proposons Confidential Guardian, un cadre qui analyse les mesures d'étalonnage sur un ensemble de données de référence afin de détecter la confiance artificiellement supprimée. En outre, il utilise des preuves d'inférence vérifiée à connaissance nulle pour garantir que les scores de confiance rapportés proviennent réellement du modèle déployé. Cela empêche le fournisseur de fabriquer des valeurs de confiance arbitraires tout en protégeant les détails exclusifs du modèle. Nos résultats confirment que Confidential Guardian empêche efficacement l'utilisation abusive de prédictions prudentes, en fournissant des garanties vérifiables que l'abstention reflète une véritable incertitude du modèle plutôt qu'une intention malveillante.

Résumé

Lorsque les systèmes d'intelligence artificielle (IA) ne sont pas sûrs d'eux, ils choisissent souvent de "s'abstenir" de faire une prédiction. Ce comportement prudent permet d'éviter des erreurs préjudiciables dans des contextes où les enjeux sont importants, comme la médecine, la finance ou la justice pénale. Mais que se passerait-il si ce même mécanisme, destiné à promouvoir la sécurité, pouvait être détourné pour devenir un outil de nuisance ? Nos travaux révèlent une possibilité troublante : une organisation pourrait délibérément faire en sorte que son système d'IA semble incertain pour certaines personnes, non pas parce que la tâche est réellement difficile, mais pour leur refuser discrètement des services tels que des prêts ou des prestations. Nous appelons cette stratégie trompeuse Mirage, une attaque qui réduit la confiance de l'IA dans des cas spécifiques tout en restant globalement performante. Il est donc difficile pour les observateurs extérieurs de remarquer quoi que ce soit de suspect. Pour mettre fin à ce type d'abus, nous présentons Confidential Guardian, un nouveau système qui permet à des auditeurs indépendants de vérifier si le comportement prudent d'une IA est réel ou artificiellement fabriqué. Pour ce faire, il analyse le comportement de l'IA sur des cas de test fiables et vérifie son comportement à l'aide d'une technique qui garantit l'honnêteté, sans révéler le fonctionnement interne du modèle. Nos résultats mettent en évidence un danger caché dans les systèmes d'IA actuels et ouvrent la voie à une plus grande transparence et à une plus grande équité, en garantissant que la prudence est utilisée à des fins de sécurité et non de discrimination.

Modèles de mouvement direct pour l'évaluation des vidéos générées

Kelsey Allen (membre de la faculté Vector), Carl Doersch, Guangyao Zhou, Mohammed Suhail, Danny Driess, Ignacio Rocco, Yulia Rubanova, Thomas Kipf, Mehdi S. M. Sajjadi, Kevin Murphy, Joao Carreira, Sjoerd van Steenkiste

Résumé

L'une des limites actuelles des modèles vidéo génératifs est qu'ils génèrent des images d'apparence plausible, mais peu de mouvement - un problème qui n'est pas bien pris en compte par la FVD et d'autres méthodes populaires d'évaluation des vidéos générées. Nous allons ici plus loin que la FVD en développant une métrique qui mesure mieux les interactions et les mouvements d'objets plausibles. Notre nouvelle approche est basée sur l'auto-encodage de pistes de points et produit des caractéristiques de mouvement qui peuvent être utilisées pour comparer les distributions de vidéos (aussi peu qu'une vidéo générée et une vidéo de référence, ou autant que deux ensembles de données), et les erreurs de reconstruction pour évaluer le mouvement de vidéos individuelles. Nous montrons que l'utilisation de pistes ponctuelles au lieu d'une reconstruction de pixels ou de caractéristiques de reconnaissance d'actions permet d'obtenir une mesure nettement plus sensible aux distorsions temporelles dans les données synthétiques, et peut prédire les évaluations humaines de la cohérence temporelle et du réalisme dans les vidéos générées obtenues à partir de modèles à source ouverte mieux qu'un large éventail d'autres solutions.

Résumé

Les modèles actuels d'intelligence artificielle qui créent des vidéos produisent souvent des images individuelles d'apparence crédible, mais la façon dont les choses bougent dans les vidéos n'est pas très réaliste. Les méthodes existantes de vérification de la qualité des vidéos ne permettent pas de repérer ces mouvements médiocres et nécessitent généralement l'accès à un ensemble complet de vidéos au lieu d'être applicables à une seule d'entre elles. Nous avons créé une nouvelle méthode de mesure de la qualité vidéo qui se concentre spécifiquement sur la façon dont les objets se déplacent et interagissent. Notre méthode consiste à suivre des points sur les objets tout au long de la vidéo et à utiliser ces informations pour comprendre le mouvement. Cela nous permet de voir si les mouvements sont réalistes, même pour des vidéos individuelles. Nous avons constaté que notre nouvelle approche, qui utilise ces points suivis, est beaucoup plus efficace que les autres méthodes pour détecter les mouvements bizarres ou non naturels dans les vidéos générées par ordinateur. Elle permet également de mieux faire correspondre ce que les gens pensent être réaliste et cohérent dans les vidéos créées par l'IA. En outre, notre méthode permet de localiser exactement l'endroit d'une vidéo où le mouvement semble incorrect, ce qui facilite la compréhension des erreurs commises.

Prédiction conditionnelle disparate dans les classificateurs multi-classes

Sivan Sabato (membre de la faculté Vector), Eran Treister, Elad Yom-Tov

Résumé

Nous proposons des méthodes pour vérifier l'équité des classificateurs multiclasses dans le cadre des probabilités égalisées multiclasses, en estimant l'écart par rapport aux probabilités égalisées lorsque le classificateur n'est pas complètement équitable. Nous généralisons aux classificateurs multiclasses la mesure de la prédiction conditionnelle disparate (DCP), proposée à l'origine par Sabato et Yom-Tov (2020) pour les classificateurs binaires. La DCP est définie comme la fraction de la population pour laquelle le classificateur prédit avec des probabilités de prédiction conditionnelle qui diffèrent de la ligne de base commune la plus proche. Nous proposons de nouvelles méthodes d'optimisation locale pour estimer le DCP multiclasse dans deux régimes différents, l'un dans lequel les matrices de confusion conditionnelles pour chaque sous-population protégée sont connues, et l'autre dans lequel elles ne peuvent pas être estimées, par exemple parce que le classificateur est inaccessible ou parce que des données de bonne qualité au niveau individuel ne sont pas disponibles. Ces méthodes peuvent être utilisées pour détecter les classificateurs qui traitent probablement une fraction importante de la population de manière inéquitable. Des expériences démontrent la précision des méthodes. Le code des expériences est fourni en tant que matériel supplémentaire.

Résumé

De nombreux systèmes d'apprentissage automatique prennent des décisions qui affectent la vie des gens, comme l'approbation de prêts ou la recommandation de traitements médicaux. Lorsque l'accès au système sous-jacent est difficile, il devient plus difficile de vérifier s'il traite tous les groupes de personnes de manière équitable. En outre, les contrôles d'équité existants ne prennent souvent pas en compte les cas où ces systèmes traitent plus de deux résultats possibles. Nous présentons de nouvelles méthodes pour vérifier l'équité de ces systèmes de décision multi-classes. Nous nous appuyons sur une mesure de l'équité appelée Disparate Conditional Prediction (DCP), qui examine le nombre de personnes recevant des prédictions qui diffèrent d'une base de référence équitable. Nous étendons cette mesure aux systèmes qui prennent en charge plus de deux résultats et proposons deux méthodes d'estimation de la PDC, l'une pour les cas où nous disposons de données détaillées sur le comportement du système pour différents groupes, et l'autre pour les cas où nous n'avons pas accès au système ou à des données individuelles de haute qualité. Ces outils facilitent la détection des cas où un système de prise de décision est susceptible de traiter injustement une partie importante de la population et aident ainsi les organisations et les régulateurs à identifier et à corriger les biais, ce qui permet d'obtenir des résultats plus équitables pour tout le monde.

Désapprentissage exact et rapide des données de réglage fin pour les LLMs

Andrei Muresanu, Anvith Thudi, Michael Zhang, Nicolas Papernot (membre de la faculté Vector)

Résumé

La formation des modèles modernes d'apprentissage automatique est coûteuse et l'on s'inquiète de plus en plus de la difficulté de supprimer rétroactivement des données de formation spécifiques. Parvenir à un désapprentissage exact dans les pipelines d'apprentissage profond - produire des modèles comme si certaines données n'avaient jamais été incluses dans la formation - reste un problème ouvert. Dans cet article, nous revisitons le désapprentissage exact dans l'apprentissage profond et montrons que pour les grands modèles de langage (LLM), nous pouvons efficacement désapprendre exactement les "données de réglage fin" (les données utilisées pour adapter un modèle pré-entraîné). Cela découle de deux observations. Premièrement, nous pouvons utiliser l'apprentissage en contexte pour adapter le LLM à l'ensemble de données de mise au point au lieu d'utiliser des algorithmes basés sur SGD. Deuxièmement, nous montrons qu'un apprentissage en contexte précis peut être effectué avec des k-moyens quantifiés, ce qui permet des opérations de désapprentissage à temps constant. Notre évaluation empirique montre que cette recette de désapprentissage offre des performances similaires à celles des solutions de réglage fin, mais réduit considérablement les coûts de désapprentissage. Notre étude met également en évidence la nécessité de nouvelles mesures du coût de désapprentissage lors de l'adaptation de l'algorithme d'apprentissage pour obtenir des opérations de désapprentissage plus rapides.

Résumé

Après le déploiement d'un modèle, il peut s'avérer nécessaire de "désapprendre" certaines des données d'apprentissage originales. Le désapprentissage exact des données d'apprentissage a été coûteux pour l'apprentissage profond, et dans cet article, nous avons montré qu'il peut être efficace lors de l'adaptation d'un LLM pré-entraîné à une tâche. Cela découle de l'observation du fait qu'un algorithme d'apprentissage parfois efficace consiste à préparer des exemples d'entraînement à l'invite donnée à un LLM. Nous avons étudié les moyens de désapprendre cette sélection d'exemples et avons constaté que nous pouvions le faire avec des coûts indépendants du modèle et de la taille de l'ensemble de données. Nous avons également observé que tous les efforts passés pour rendre le désapprentissage plus rapide augmentaient également le coût de l'inférence, et nous avons proposé de nouvelles mesures pour capturer ce compromis.

FedOne : Apprentissage fédéré efficace en termes de requêtes pour l'apprentissage par concours discret en boîte noire

Ganyu Wang, Jinjie Fang, Maxwell (Juncheng) Yin, Bin Gu, Xi Chen, Boyu Wang (affilié à la faculté Vector), Yi Chang, Charles X. Ling

Résumé

Le Black-Box Discrete Prompt Learning (BDPL) est une méthode de réglage des invites qui optimise les invites discrètes sans accéder aux paramètres ou aux gradients du modèle, ce qui rend possible le réglage des invites sur un grand modèle linguistique (LLM) basé sur l'informatique en nuage. L'adaptation de l'apprentissage fédéré (AF) au BDPL pourrait encore améliorer les performances de l'ajustement des messages-guides en tirant parti de données provenant de diverses sources. Cependant, toutes les recherches antérieures sur l'apprentissage fédéré en boîte noire ont négligé le coût substantiel des requêtes associé au service LLM basé sur le cloud. Pour combler cette lacune, nous avons effectué une analyse théorique de l'efficacité des requêtes dans le contexte de l'optimisation des requêtes par boîte noire fédérée. Nos résultats ont révélé que la dégradation de FedAvg pour activer un seul client par tour, une stratégie que nous avons appelée \textit{FedOne}, a permis une efficacité optimale des requêtes dans l'apprentissage fédéré de la boîte noire. En nous appuyant sur cette idée, nous avons proposé le cadre FedOne, une méthode d'apprentissage par invite discrète à boîte noire fédérée conçue pour maximiser l'efficacité des requêtes lors de l'interaction avec des LLM basés dans le nuage. Nous avons mené des expériences numériques sur divers aspects de notre cadre, démontrant une amélioration significative de l'efficacité des requêtes, qui s'aligne sur nos résultats théoriques.

Résumé

Les grands modèles linguistiques comme ChatGPT sont souvent accessibles par le biais de services payants qui ne permettent pas aux utilisateurs de voir ou de modifier les composants internes du modèle. Pour adapter ces modèles à des tâches spécifiques, les utilisateurs doivent les interroger à plusieurs reprises, ce qui est à la fois coûteux et lent. Cet article étudie comment de nombreux utilisateurs peuvent travailler ensemble pour affiner ces modèles sans partager leurs données, à l'aide d'une méthode appelée apprentissage fédéré. Mais dans cette configuration, le coût se multiplie : chaque utilisateur participant doit effectuer de nombreuses requêtes auprès des LLM. Cela n'est donc pas pratique. Nous présentons FedOne, une nouvelle approche qui entraîne le modèle en activant un seul utilisateur à la fois. Notre analyse montre que cette configuration est non seulement beaucoup plus efficace pour réduire les requêtes coûteuses, mais qu'elle conserve également de bonnes performances. Nous avons testé cette idée sur des tâches réelles en utilisant des modèles tels que GPT-3.5 et nous avons montré que FedOne est à la fois efficace et rentable. FedOne permet aux personnes et aux organisations d'adapter plus facilement et à moindre coût des outils d'IA puissants à leurs besoins.

Correcteurs de Feynman-Kac dans la diffusion : Recuit, guidage et produit d'experts *

Marta Skreta, Tara Akhound-Sadegh, Viktor Ohanesian, Roberto Bondesan, Alan Aspuru-Guzik (membre de la faculté Vector), Arnaud Doucet, Rob Brekelmans (chercheur postdoctoral émérite Vector), Alexander Tong, Kirill Neklyudov

Résumé

Bien que les modèles génératifs basés sur les scores soient le modèle de choix dans divers domaines, il existe peu d'outils disponibles pour contrôler le comportement du temps d'inférence d'une manière fondée sur des principes, par exemple pour composer de multiples modèles pré-entraînés. Les méthodes d'orientation sans classificateur existantes utilisent une simple heuristique pour mélanger les scores conditionnels et inconditionnels afin d'échantillonner approximativement à partir de distributions conditionnelles. Cependant, ces méthodes ne permettent pas d'obtenir une approximation des distributions intermédiaires, ce qui nécessite des étapes de correction supplémentaires. Dans ce travail, nous fournissons une méthode efficace et fondée sur des principes pour l'échantillonnage à partir d'une séquence de distributions recuites, à moyenne géométrique ou de produits dérivés de modèles à base de scores préalablement entraînés. Nous dérivons un schéma de simulation pondéré que nous appelons correcteurs de Feynman-Kac (FKC) basé sur la célèbre formule de Feynman-Kac en prenant soigneusement en compte les termes des équations différentielles partielles (EDP) appropriées. Pour simuler ces EDP, nous proposons des algorithmes de rééchantillonnage de Monte-Carlo séquentiel (SMC) qui exploitent la mise à l'échelle du temps d'inférence pour améliorer la qualité de l'échantillonnage. Nous démontrons empiriquement l'utilité de nos méthodes en proposant un échantillonnage amorti via un recuit de température du temps d'inférence, en améliorant la génération de molécules multi-objectifs à l'aide de modèles pré-entraînés et en améliorant le guidage sans classificateur pour la génération de texte à partir d'images.

Résumé

Les modèles de diffusion sont des outils puissants pour générer des données telles que des images, des molécules ou du texte, mais il est généralement difficile de contrôler leur processus de génération. Cet article présente une méthode appelée correcteurs de Feynman-Kac (FKC), qui permet de contrôler précisément ce que génère un modèle de diffusion sans avoir à le réentraîner. Le FKC fonctionne en ajustant la manière dont les échantillons sont tirés du modèle, sur la base du cadre de Monte Carlo séquentiel et, en particulier, de la formule de Feynman-Kac. Cela permet d'adopter une approche fondée sur des principes pour l'échantillonnage de distributions cibles combinées, comme les mélanges ou les produits de plusieurs modèles pré-entraînés, ou les distributions cibles recuites par la température. Nous montrons que la FKC améliore l'échantillonnage dans trois contextes : 1. le guidage sans classificateur, qui est largement utilisé dans la génération texte-image, 2. la génération de molécules qui satisfont des objectifs multiples (liaison à deux protéines simultanément) et 3. l'échantillonnage de systèmes physiques à différentes températures à l'aide d'un modèle entraîné à une seule température. Contrairement aux méthodes traditionnelles, la FKC permet un échantillonnage flexible et efficace avec peu de calculs supplémentaires. Cela ouvre de nouvelles possibilités d'applications dans l'IA, la découverte de médicaments et les simulations scientifiques.

Des pêcheurs gratuits ? Approximation de la matrice d'information de Fisher par le recyclage de l'accumulateur de gradient quadratique *

Yu Li, Felix Dangel (chercheur postdoctoral émérite de Vector), Derek Tam, Colin Raffel (membre de la faculté de Vector)

Résumé

La diagonale de la matrice d'information de Fisher d'un modèle (la "Fisher") a souvent été utilisée pour mesurer la sensibilité des paramètres. Généralement, la matrice de Fisher est estimée en calculant le gradient quadratique des résultats du modèle par rapport à ses paramètres, moyenné sur quelques centaines ou milliers d'exemples - un processus qui entraîne des coûts de calcul non négligeables. Parallèlement, les méthodes de gradient adaptatif, comme l'optimiseur Adam omniprésent, calculent une moyenne mobile du gradient au carré au cours de l'apprentissage. Cet article examine donc si une approximation de Fisher peut être obtenue "gratuitement" en recyclant l'accumulateur du gradient quadratique qui a déjà été calculé au cours de l'apprentissage. Grâce à un ensemble complet d'expériences couvrant cinq applications du Fisher, nous démontrons que le "Squisher" (**Accumulateur de gradient au carré en tant qu'approximation du F**isher**) a des performances similaires à celles du Fisher tout en surpassant les méthodes de base. En outre, nous clarifions les différences exactes entre le Squisher et le Fisher et fournissons une quantification empirique de leur impact respectif.

Résumé

Comprendre quelles parties d'un réseau neuronal sont les plus importantes (c'est-à-dire quels paramètres sont les plus importants) peut faciliter des tâches telles que la fusion de modèles, l'élagage, l'apprentissage par transfert et l'apprentissage continu. La diagonale de la matrice d'information de Fisher, que nous appelons la matrice de Fisher, est un outil très utilisé à cet effet. Mais son calcul peut s'avérer coûteux, car il nécessite des calculs supplémentaires sur des centaines ou des milliers d'exemples. Dans cet article, nous nous demandons si nous pouvons obtenir une version suffisamment bonne de la matrice de Fisher sans en payer le prix fort. La réponse est étonnamment positive. Au cours de l'apprentissage, les optimiseurs largement utilisés comme Adam gardent déjà trace d'une quantité similaire : les gradients au carré des paramètres du modèle. Cette approximation, que nous appelons Squisher (**Accumulateur de gradient au carré comme approximation du F**isher**), ne nécessite aucun calcul ou mémoire supplémentaire et est facilement disponible "gratuitement". Dans cinq applications courantes de la méthode de Fisher, nous montrons que Squisher produit des résultats comparables à la méthode de Fisher originale, mais avec un coût de calcul nettement inférieur. Cette méthode permet d'économiser du temps et des ressources, ce qui facilite l'application de ces techniques à grande échelle.

Galileo : Apprentissage des caractéristiques globales et locales de nombreuses modalités de télédétection

Gabriel Tseng, Anthony Fuller, Marlena Reil, Henry Herzog, Patrick Beukema, Favyen Bastani, James Green, Evan Shelhamer (membre de la faculté Vecteur), Hannah Kerner, David Rolnick

Résumé

Nous introduisons un transformateur hautement multimodal pour représenter de nombreuses modalités de télédétection - optique multispectrale, radar à synthèse d'ouverture, élévation, météo, pseudo-étiquettes et autres - dans l'espace et le temps. Ces données sont utiles pour diverses tâches de télédétection, telles que la cartographie des cultures et la détection des inondations. Cependant, l'apprentissage de représentations partagées des données de télédétection est un défi, étant donné la diversité des modalités de données pertinentes et parce que les objets d'intérêt varient massivement en échelle, des petits bateaux (1-2 pixels et rapide) aux glaciers (des milliers de pixels et lent). Nous présentons un nouvel algorithme d'apprentissage auto-supervisé qui extrait des caractéristiques multi-échelles à travers un ensemble flexible de modalités d'entrée par le biais d'une modélisation masquée. Nos pertes contrastives globales et locales diffèrent dans leurs cibles (représentations profondes vs. projections d'entrée peu profondes) et leurs stratégies de masquage (structurées vs. non structurées). Notre Galileo est un modèle généraliste unique qui surpasse les modèles spécialisés SoTA pour les images satellites et les séries temporelles de pixels sur onze points de référence et plusieurs tâches.

Résumé

 Les données de télédétection (observations par satellite, cartes topographiques, etc.) nous fournissent de nombreuses informations sur notre planète, mais nous en savons moins que vous ne le pensez. L'analyse des données de télédétection à l'aide de l'apprentissage automatique peut nous aider à mieux comprendre l'évolution de notre planète. Nous présentons un modèle d'apprentissage automatique - que nous appelons Galileo - qui peut aider à résumer les données de télédétection. Cela signifie qu'avec un minimum de traitement supplémentaire, ces résumés peuvent aider à faire des prédictions et des cartes, comme celles des inondations ou des champs agricoles. Pour ce faire, nous donnons à Galileo un ensemble incomplet de données pour une période et un lieu donnés, et nous lui demandons de reconstruire ce que nous avons retiré. En faisant attention à ce que nous demandons à Galileo de reconstruire, nous pouvons nous assurer que les résumés de Galileo prennent en compte les choses grandes et lentes (comme les glaciers) ainsi que les choses petites et rapides (comme les bateaux de pêche). Galileo est particulièrement adapté à la télédétection dans la pratique grâce à sa modélisation des données dans l'espace, le temps et une variété de types de données (par exemple, les données optiques des satellites, les cartes topographiques, les données météorologiques et bien d'autres). Nous testons Galileo sur 15 tâches diverses par rapport à 11 autres méthodes : Galileo obtient les meilleurs résultats avec un seul modèle général. Galileo obtient les meilleurs résultats avec un seul modèle général, ce qui le rend immédiatement utile dans de nombreuses applications existantes.

Cache-cache : Les symétries des transformateurs obscurcissent la netteté et la géométrie riemannienne la trouve *.

Marvin F. da Silva, Felix Dangel (boursier postdoctoral distingué de Vector), Sageev Oore (affilié à la faculté Vector)

Résumé

Le concept de finesse a été appliqué avec succès aux architectures traditionnelles telles que les MLP et les CNN pour prédire leur généralisation. Pour les transformateurs, cependant, des travaux récents ont fait état d'une faible corrélation entre la planéité et la généralisation. Nous soutenons que les mesures de netteté existantes échouent pour les transformateurs, car ils ont des symétries beaucoup plus riches dans leur mécanisme d'attention qui induisent des directions dans l'espace des paramètres le long desquelles le réseau ou sa perte restent identiques. Nous postulons que la netteté doit tenir pleinement compte de ces symétries et nous la redéfinissons donc sur un collecteur de quotient qui résulte de l'élimination par quotient des symétries des transformateurs, ce qui supprime leurs ambiguïtés. En nous appuyant sur des outils de la géométrie riemannienne, nous proposons une notion entièrement générale de netteté, en termes de boule géodésique sur le collecteur quotient corrigé des symétries. En pratique, nous devons recourir à l'approximation des géodésiques. En procédant ainsi jusqu'au premier ordre, on obtient les mesures de netteté adaptatives existantes, et nous démontrons que l'inclusion de termes d'ordre supérieur est cruciale pour retrouver la corrélation avec la généralisation. Nous présentons des résultats sur des réseaux diagonaux avec des données synthétiques et montrons que notre netteté géodésique révèle une forte corrélation pour les transformateurs du monde réel dans les tâches de classification de textes et d'images.

Résumé

Dans le domaine de l'apprentissage profond, comprendre pourquoi certains réseaux neuronaux font de meilleures prédictions que d'autres est un problème important. L'une des idées les plus répandues pour expliquer ce phénomène s'appelle la netteté. La netteté s'intéresse à la forme du paysage des pertes du réseau, une sorte de paysage montrant à quel point le réseau est bon ou mauvais en fonction de petites modifications de ses paramètres internes. En général, si ce paysage est "plat", cela signifie que les petits changements n'affectent pas beaucoup les performances et que le modèle est plus susceptible de bien se généraliser à des données qu'il n'a jamais vues auparavant. Cette idée fonctionne bien pour les anciens types de réseaux neuronaux tels que les MLP (perceptrons multicouches) et les CNN (réseaux neuronaux convolutifs). Mais pour les transformateurs, cette relation est rompue. Les chercheurs ont constaté que la finesse, telle qu'elle est habituellement mesurée, ne permet pas de prédire de manière fiable si un transformateur se généralisera bien. Nous pensons que le problème ne réside pas dans l'idée même de netteté, mais dans la manière dont elle est mesurée dans les transformateurs. Les transformateurs ont de nombreuses façons de modifier leurs paramètres internes sans changer le comportement du modèle (symétries). Ces symétries perturbent les mesures traditionnelles de la netteté. En utilisant des outils de géométrie différentielle, nous introduisons une définition plus précise de la netteté qui prend en compte ces symétries, et nous constatons qu'une fois ces symétries corrigées, la netteté reste un concept utile.

Adaptation du domaine graphique améliorée par l'homophilie

Ruiyi Fang, Bingheng Li, Jingyu Zhao, Ruizhi Pu, QIUHAO Zeng, Gezheng Xu, Charles X. Ling, Boyu Wang (affilié à la faculté Vector)

Résumé

L'adaptation au domaine graphique (GDA) transfère les connaissances des graphes sources étiquetés vers les graphes cibles non étiquetés, ce qui permet de relever le défi de la pénurie d'étiquettes. Dans cet article, nous soulignons l'importance de l'homophilie des graphes, un facteur essentiel pour l'alignement du domaine des graphes, qui a cependant été longtemps négligé dans les approches existantes. Plus précisément, notre analyse révèle tout d'abord que des écarts d'homophilie existent dans les benchmarks. De plus, nous montrons également que les divergences d'homophilie dégradent les performances GDA à la fois d'un point de vue empirique et théorique, ce qui souligne davantage l'importance de l'alignement de l'homophilie dans GDA. Inspirés par ces résultats, nous proposons un nouvel algorithme d'alignement de l'homophilie qui utilise des filtres mixtes pour lisser les signaux des graphes, ce qui permet de capturer et d'atténuer efficacement les divergences d'homophilie entre les graphes. Des résultats expérimentaux sur une variété de points de référence vérifient l'efficacité de notre méthode.

Résumé

Les graphiques sont des moyens puissants de représenter des relations complexes, comme la façon dont les gens interagissent sur les réseaux sociaux ou la façon dont les informations circulent sur l'internet. Dans de nombreuses situations réelles, des informations utiles (comme des étiquettes ou des catégories) existent pour un graphique, mais pas pour un autre. L'adaptation au domaine graphique (GDA) permet de transférer ces connaissances d'un graphique à l'autre, ce qui permet de gagner du temps et d'économiser des ressources. Au cours de nos recherches, nous avons découvert qu'un facteur clé appelé homophilie - la tendance des nœuds connectés à se ressembler - est souvent différent d'un graphe à l'autre, et que ce décalage peut nuire aux performances de la GDA. Il est surprenant de constater que ce problème a été largement ignoré jusqu'à présent. Nous avons étudié la manière dont ces différences affectent les résultats et nous avons découvert que l'alignement de cette similarité entre les graphes peut faire une grande différence. Nous avons développé une nouvelle méthode pour atténuer ces différences et améliorer le transfert de connaissances entre les graphes. Notre approche fonctionne bien dans divers ensembles de données, ce qui est prometteur pour l'amélioration de l'apprentissage à partir de données graphiques dans de nombreuses applications, des systèmes de recommandation aux réseaux sociaux.

Amélioration de la robustesse aux changements de sous-population par une exploration heuristique du sous-espace avec une diversification accrue

Nguyen Nhat Minh To, Paul Wilson, Viet Nguyen, Mohamed Harmanani, Michael Cooper, Fahimeh Fooladgar, Purang Abolmaesumi, Parvin Mousavi (membre de la faculté Vector), Rahul G. Krishnan (membre de la faculté Vector)

Résumé

Les déplacements de sous-populations, caractérisés par des disparités dans les distributions de sous-populations entre les ensembles de données d'apprentissage et les ensembles de données cibles, peuvent dégrader de manière significative les performances du modèle d'apprentissage automatique. Les solutions actuelles aux décalages de sous-population consistent souvent à modifier la minimisation empirique du risque avec des stratégies de repondération pour améliorer la généralisation entre les sous-populations. Cette stratégie repose souvent sur des hypothèses concernant le nombre et la nature des sous-populations et des annotations sur l'appartenance aux sous-populations, qui ne sont pas disponibles pour de nombreux ensembles de données du monde réel. Nous proposons une nouvelle solution pour explorer de manière heuristique le sous-espace des caractéristiques : nous entraînons de nombreux classificateurs tout en renforçant la diversification afin de promouvoir la découverte et la classification correcte de nouvelles sous-populations sans nécessiter de connaissances préalables sur les sous-populations. Étant donné un réseau d'extraction de caractéristiques, nous remplaçons sa couche linéaire standard par un mélange de classificateurs prototypiques, où chaque membre est entraîné à classer les données tout en se concentrant sur des caractéristiques et des échantillons différents de ceux des autres membres. Nous démontrons que notre solution est plus performante que l'état de l'art antérieur en ce qui concerne la précision du pire groupe sur la plupart des points de référence en utilisant des évaluations empiriques sur neuf ensembles de données du monde réel couvrant divers domaines et types de changement de sous-population (le code est disponible à l'adresse https://anonymous.4open.science/r/prototypical_ensembles-BCB3).

Résumé

Les modèles d'apprentissage automatique rencontrent souvent des difficultés lorsqu'ils sont confrontés à des situations légèrement différentes de celles sur lesquelles ils ont été formés. Il s'agit d'un problème majeur lorsque les données comprennent des sous-groupes cachés, tels que différents types de personnes, d'environnements ou de conditions médicales, qui ne sont pas représentés de manière égale. Par exemple, un modèle formé principalement sur des patients en bonne santé peut ne pas fonctionner correctement sur des patients atteints de maladies rares. Notre recherche introduit une nouvelle technique appelée Ensemble prototypique diversifié (EPD) pour résoudre ce problème. Au lieu d'utiliser un seul modèle, nous créons un groupe de classificateurs simples appelés prototypes. Chacun d'entre eux apprend à se concentrer sur différents modèles ou caractéristiques des données. Nous encourageons ces classificateurs à être aussi différents que possible, afin qu'ensemble ils puissent couvrir une plus grande variété de sous-groupes cachés. Le principal avantage du DPE est qu'il ne nécessite aucune connaissance préalable des sous-groupes. Il peut les découvrir automatiquement et s'y adapter en utilisant uniquement les données elles-mêmes. Cela le rend particulièrement utile dans les situations réelles où les étiquettes des sous-groupes sont manquantes ou difficiles à définir. Sur neuf ensembles de données difficiles, notre méthode surpasse systématiquement les solutions existantes et contribue à rendre les modèles d'apprentissage automatique plus équitables et plus fiables lorsqu'ils sont utilisés dans des populations diverses.

Pondération gaussienne tenant compte des interactions pour l'apprentissage fédéré en grappes

Alessandro Licciardi, Davide Leo, Eros Fanì, Barbara Caputo, Marco Ciccone (titulaire d'une bourse postdoctorale Vector)

Résumé

L'apprentissage fédéré (AF) est apparu comme un paradigme décentralisé pour former des modèles tout en préservant la vie privée. Cependant, l'apprentissage fédéré conventionnel est confronté à l'hétérogénéité des données et au déséquilibre des classes, qui dégradent les performances des modèles. L'apprentissage fédéré en grappes équilibre la personnalisation et la formation décentralisée en regroupant les clients ayant des distributions de données analogues, ce qui permet d'améliorer la précision tout en respectant les contraintes en matière de confidentialité. Dans ce travail, nous proposons une nouvelle méthode de regroupement pour le FL, **FedGWC** (Federated Gaussian Weighting Clustering), qui regroupe les clients en fonction de la distribution de leurs données, ce qui permet l'apprentissage d'un modèle plus robuste et personnalisé sur les groupes identifiés. **FedGWC** identifie des groupes homogènes en transformant les pertes empiriques individuelles pour modéliser les interactions des clients avec un mécanisme de récompense gaussien. En outre, nous introduisons le *Wasserstein Adjusted Score*, une nouvelle métrique de clustering pour FL afin d'évaluer la cohésion des clusters par rapport à la distribution des classes individuelles. Nos expériences sur des ensembles de données de référence montrent que **FedGWC** surpasse les algorithmes FL existants en termes de qualité des grappes et de précision de la classification, validant ainsi l'efficacité de notre approche.

Résumé

La formation de modèles d'IA nécessite généralement la centralisation de grandes quantités de données, ce qui soulève des problèmes de confidentialité. L'apprentissage fédéré (Federated Learning, FL) offre une solution en permettant aux appareils ou institutions périphériques - tels que les smartphones et les hôpitaux - d'entraîner un modèle partagé en collaboration sans envoyer leurs données privées à un serveur central. Cependant, les données du monde réel sont souvent désordonnées : différents appareils peuvent avoir des types de données très divers, ou certaines catégories de données peuvent être rares sur certains appareils alors qu'elles sont courantes sur d'autres. Cette *hétérogénéité des données* fait qu'il est difficile pour les modèles FL d'être performants sur tous les appareils. Notre travail introduit **FedGWC**, une nouvelle méthode pour rendre l'entraînement FL plus efficace. Au lieu de forcer tous les appareils à entraîner un seul modèle, FedGWC regroupe les appareils ayant des caractéristiques de données similaires en grappes, ce qui permet à chaque grappe d'entraîner son modèle spécialisé, qui est beaucoup mieux adapté aux données de ce groupe. Cela ressemble à l'organisation d'un groupe d'étude : au lieu que tout le monde étudie le même sujet général, des groupes plus petits se forment pour se concentrer sur des sujets spécifiques pour lesquels ils ont tous besoin d'aide. Pour ce faire, FedGWC analyse la capacité d'apprentissage du modèle de chaque appareil à partir de ses propres données, sans avoir à examiner les données elles-mêmes. Nous avons également développé une nouvelle méthode pour mesurer la qualité de ces regroupements, en particulier lorsque certaines catégories de données sont beaucoup plus rares que d'autres. Nos expériences montrent que FedGWC améliore de manière significative la précision des modèles dans les configurations FL, en particulier lorsque les données sont diverses et inégalement réparties. Cela signifie que nous pouvons construire des applications d'IA plus puissantes et personnalisées tout en préservant les informations privées sensibles.

Les modèles de langage peuvent compléter textuellement un texte sur lequel ils n'ont pas été explicitement formés *.

Ken Ziyu Liu, Christopher A. Choquette Choo, Matthew Jagielski, Peter Kairouz, Sanmi Koyejo, Nicolas Papernot (affilié à la faculté Vector), Percy Liang

Résumé

An important question today is whether a given text was used to train a large language model (LLM). A \emph{completion} test is often employed: check if the LLM completes a sufficiently complex text. But, we require a ground-truth definition of membership; most commonly, it is defined as a member based on the \ngram overlap between the target text and any text in the dataset. In this work, we demonstrate that this $n$-gram based membership definition can be effectively gamed. We study scenarios where sequences are \emph{non-members} for a given $n$ and we find that completion tests still succeed. We find many natural cases of this by retraining LLMs after removing all training samples that were completed: these cases include exact duplicates, near-duplicates, and even short overlaps; they showcase that it is difficult to find a single viable choice of $n$. Using these insights, we design adversarial datasets that can cause any target sequences to be completed without containing it, for any reasonable choice of $n$. Our findings highlight the inadequacy of $n$-gram membership, suggesting membership definitions fail to account for auxiliary information available to the training algorithm.

Résumé

Qu'entendons-nous exactement par "inclusion de l'ensemble d'entraînement" dans les modèles linguistiques ? Un grand nombre de travaux - dans le domaine de la recherche, de la politique et même des procès - ont convergé implicitement vers des définitions basées sur le chevauchement des $n$-grammes (sous-chaînes). En d'autres termes, un morceau de texte est considéré comme un "membre" de l'ensemble d'apprentissage si une partie de ce texte (n-gramme) peut être trouvée dans l'ensemble d'apprentissage. Cet article est le récit de deux expériences qui démontrent les limites fondamentales de toutes les définitions d'appartenance basées sur les $n$-grammes. Nous posons deux questions du point de vue de la complétion de texte (verbatim) à l'aide d'un modèle linguistique : 1. **Suppression:** pouvons-nous *empêcher* la génération verbatim d'un texte en supprimant tous ses n-grammes et en ré-entraînant le modèle à partir de zéro ? La réponse est non ! De nombreux textes supprimés peuvent encore être générés textuellement par le modèle LLM réentraîné. 2. **Addition:** pouvons-nous *causer* la génération verbatim d'un texte en nous entraînant sur des textes sans chevauchement de n-grammes ? La réponse est oui ! Et cela ne nécessite que quelques étapes de réglage fin du gradient. Le message clé de ce travail est que l'appartenance aux données dans les LLM va au-delà de l'appartenance à un ensemble de textes dans l'ensemble de données brutes ; elle englobe également les voisinages de données ("soft membership") dus à la généralisation des LLM, à la provenance des données, au prétraitement et à d'autres informations auxiliaires auxquelles l'algorithme d'apprentissage a accès tout au long du pipeline de ML. De nombreux sous-domaines, tels que le droit d'auteur, le désapprentissage, l'inférence d'appartenance et la transparence des données, nécessitent une définition de l'appartenance, et notre travail montre que des notions trop simplistes de l'appartenance entravent les progrès dans ces domaines.

LAST SToP pour la modélisation de séries temporelles asynchrones

Shubham Gupta, Thibaut Durand, Graham Taylor (membre de la faculté Vector), Lilian Bialokozowicz

Résumé

Nous présentons une nouvelle conception d'invite pour les grands modèles de langage (LLM) adaptée aux **séries temporelles asynchrones**. Contrairement aux séries temporelles régulières, qui supposent des valeurs à des points temporels régulièrement espacés, les séries temporelles asynchrones consistent en des événements se produisant à des intervalles irréguliers, chacun étant décrit en langage naturel. Notre approche utilise efficacement le langage naturel riche des descriptions d'événements, permettant aux LLM de bénéficier de leur connaissance du monde pour raisonner à travers différents domaines et tâches. Cela nous permet d'étendre la portée de l'analyse des séries temporelles asynchrones au-delà de la prévision pour inclure des tâches telles que la détection d'anomalies et l'imputation de données. Nous présentons également **Stochastic Soft Prompting**, un nouveau mécanisme d'ajustement qui améliore de manière significative la performance du modèle, surpassant les méthodes d'ajustement existantes telles que QLORA. Grâce à des expériences approfondies sur des ensembles de données réels, nous démontrons que notre approche atteint des performances de pointe pour différentes tâches et ensembles de données.

Résumé

La plupart des systèmes d'IA analysent des données qui arrivent à intervalles réguliers, comme les cours boursiers quotidiens ou les relevés de température horaires. Mais de nombreux événements du monde réel se produisent de manière imprévisible, comme les urgences médicales, les messages sur les médias sociaux ou les pannes d'équipement, et sont décrits en langage naturel plutôt qu'en chiffres. Les méthodes traditionnelles ont du mal à traiter ces données de "séries temporelles asynchrones", car elles ne sont pas en mesure de prendre en compte à la fois le temps irrégulier et les descriptions textuelles riches. Nous avons développé LASTS, une nouvelle approche qui utilise de grands modèles de langage pour analyser ces séquences d'événements irréguliers. Au lieu de forcer les événements à entrer dans des catégories rigides, notre méthode préserve leurs descriptions en langage naturel, ce qui permet à l'IA d'utiliser sa compréhension du langage et sa connaissance du monde. Nous avons également créé le "Stochastic Soft Prompting", une technique de réglage fin qui aide les LLM à comprendre les données de notre domaine spécifique bien mieux que les autres techniques de réglage fin connues. Notre approche est nettement plus performante que les méthodes existantes dans de nombreux ensembles de données du monde réel. Cela rend l'analyse sophistiquée des séries temporelles plus accessible et pourrait améliorer les applications dans le suivi des soins de santé, l'analyse financière et la compréhension des médias sociaux, en aidant les organisations à mieux prédire et répondre à des événements irréguliers mais importants.

Exploitation de problèmes mathématiques en ligne de niveau olympique pour la formation des MFR et l'évaluation de la résistance à la contamination

Seyed Mohammad Sadegh Mahdavi, Muchen Li, Kaiwen Liu, Christos Thrampoulidis, Leonid Sigal (membre de la faculté Vector), Renjie Liao (membre de la faculté Vector)

Résumé

Les progrès réalisés dans le domaine des grands modèles de langage (LLM) ont suscité l'intérêt pour leur capacité à résoudre des problèmes mathématiques de niveau olympique. Cependant, la formation et l'évaluation de ces modèles sont limitées par la taille et la qualité des ensembles de données disponibles, car la création de données à grande échelle pour des problèmes aussi avancés nécessite un effort considérable de la part des experts humains.Dans cet article, nous présentons un pipeline automatisé qui exploite les riches ressources du forum Art of Problem Solving (AoPS), qui présente principalement des problèmes de niveau olympique et des solutions proposées par la communauté.En utilisant des LLM open-source, nous développons une méthode pour extraire des paires question-réponse du forum, résultant en **AoPS-Instruct**, un ensemble de données de plus de 600 000 paires QA de haute qualité.Nos expériences démontrent que le réglage fin des LLM sur AoPS-Instruct améliore leurs capacités de raisonnement à travers divers points de référence. De plus, nous construisons un pipeline automatique qui introduit **LiveAoPSBench**, un ensemble d'évaluation évolutif avec des horodatages, dérivé des dernières données du forum, fournissant un benchmark résistant à la contamination pour évaluer la performance des LLMs.Notamment, nous observons un déclin significatif de la performance des LLMs avec le temps, suggérant que leur succès sur des exemples plus anciens peut provenir de l'exposition au pré-entraînement plutôt que d'une véritable capacité de raisonnement. Notre travail présente une approche évolutive pour créer et maintenir des ensembles de données à grande échelle et de haute qualité pour le raisonnement mathématique avancé, offrant des aperçus précieux sur les capacités et les limites des LLM dans ce domaine.

Résumé

La plupart des LLM existants ont des difficultés avec les problèmes mathématiques avancés parce qu'il y a très peu de données d'entraînement de haute qualité pour les questions de niveau olympique, et les références existantes comprennent souvent des problèmes que les modèles ont déjà vus pendant le pré-entraînement, ce qui rend les évaluations peu fiables. Pour y remédier, nous avons construit un pipeline automatisé qui exploite le forum Art of Problem Solving à la recherche de véritables problèmes de niveau compétition et de solutions fournies par la communauté, puis utilise des LLM open-source pour extraire et nettoyer plus de 600 000 paires question-réponse, créant ainsi l'ensemble de données AoPS-Instruct. Nous avons également développé LiveAoPSBench, un ensemble d'évaluation évolutif tiré des derniers messages du forum, qui filtre tout chevauchement avec des données antérieures afin d'éviter toute contamination. En affinant divers LLM sur AoPS-Instruct, nous avons observé des améliorations marquées dans leur capacité à résoudre des problèmes mathématiques difficiles. En outre, le suivi des performances au fil du temps sur LiveAoPSBench a révélé que de nombreux modèles sont moins performants sur les questions plus récentes, ce qui indique que les succès passés découlent souvent du fait d'avoir vu des problèmes similaires lors de la pré-formation plutôt que de véritables compétences de raisonnement. Ce travail offre un moyen évolutif de générer et de maintenir de grands ensembles de données fiables pour le raisonnement mathématique avancé, aidant les chercheurs à mieux comprendre et à pousser les capacités réelles des LLM dans ce domaine.

Tirer parti de la confidentialité par instance pour le désapprentissage des machines

Naz Sepahvand, Anvith Thudi, Berivan Isik, Ashmita Bhattacharyya, Nicolas Papernot (membre de la faculté Vector), Eleni Triantafillou, Daniel Roy (membre de la faculté Vector), Gintare Karolina Dziugaite

Résumé

Nous présentons une approche fondée sur des principes et par instance pour quantifier la difficulté du désapprentissage par le biais d'un réglage fin. Nous commençons par affiner une analyse de la descente de gradient bruyante pour le désapprentissage (Chien et al., 2024), en obtenant un meilleur compromis utilité-désapprentissage en remplaçant les limites de perte de confidentialité dans le pire des cas par des pertes de confidentialité par instance (Thudi et al., 2024), chacune limitant la divergence (de Renyi) pour le réapprentissage sans un point de données individuel. Pour démontrer l'applicabilité pratique de notre théorie, nous présentons des résultats empiriques montrant que nos prédictions théoriques sont confirmées à la fois pour la dynamique stochastique du gradient de Langevin (SGLD) et pour le réglage fin standard sans bruit explicite. Nous démontrons en outre que les pertes de confidentialité par instance sont en corrélation avec plusieurs mesures existantes de la difficulté des données, tout en identifiant également des groupes de points de données plus difficiles, et nous introduisons de nouvelles méthodes d'évaluation basées sur les barrières de perte. Dans l'ensemble, nos résultats fournissent une base pour des stratégies de désapprentissage plus efficaces et adaptatives, adaptées aux propriétés uniques des points de données individuels.

Résumé

Dans des scénarios tels que le suivi de la législation ou des données de formation corrompues, un formateur de modèles doit "oublier" une partie de son ensemble de données de formation. Nous établissons un lien avec une métrique dérivée des statistiques collectées pendant la formation, qui permet de prédire la difficulté d'oublier un point de données. Sur le plan théorique, nous prouvons que cette métrique fournit une limite supérieure au nombre d'étapes de descente de gradient nécessaires pour oublier un point de données. De manière empirique, nous constatons que, sur l'ensemble des configurations d'entraînement, cette métrique classe avec précision les points de données en fonction du nombre d'étapes de descente de gradient nécessaires pour les oublier. En outre, nous constatons que les mesures proposées permettent de découvrir des points de données plus difficiles à oublier, par rapport aux approches antérieures d'identification des points de données difficiles.

MedRAX : Agent de raisonnement médical pour la radiographie du thorax

Adibvafa Fallahpour, Jun Ma, Alif Munim, Hongwei Lyu, Bo Wang (membre de la faculté Vector)

Résumé

Pierre angulaire de l'imagerie diagnostique, la radiographie pulmonaire (RPC) joue un rôle essentiel dans la prise de décisions critiques en matière de gestion des maladies et de soins aux patients. Bien que des innovations récentes aient conduit à des modèles spécialisés pour diverses tâches d'interprétation des RXC, ces solutions fonctionnent souvent de manière isolée, ce qui limite leur utilité pratique dans la pratique clinique. Nous présentons MedRAX, le premier agent d'intelligence artificielle polyvalent qui intègre de manière transparente des outils d'analyse CXR de pointe et des modèles de langage multimodaux dans un cadre unifié. MedRAX exploite dynamiquement ces modèles pour répondre à des requêtes médicales complexes sans nécessiter de formation supplémentaire. Pour évaluer rigoureusement ses capacités, nous présentons ChestAgentBench, un benchmark complet contenant 2 500 requêtes médicales complexes dans 7 catégories différentes. Nos expériences démontrent que MedRAX atteint des performances de pointe par rapport aux modèles open-source et propriétaires, ce qui représente une étape importante vers le déploiement pratique de systèmes automatisés d'interprétation CXR. Les données et le code seront accessibles au public à l'adresse https://medrax25.github.io.

Résumé

L'interprétation des radiographies thoraciques est une tâche essentielle en médecine, mais qui demande beaucoup de travail. Les outils d'intelligence artificielle (IA) existants fonctionnent souvent comme des applications autonomes, ce qui limite leur intégration dans des flux de travail cliniques complets. En outre, les modèles d'intelligence artificielle généraux actuels, malgré leurs progrès, ne fournissent pas toujours les capacités d'analyse en plusieurs étapes ou les processus décisionnels transparents requis dans les diagnostics médicaux. Nous avons développé MedRAX, un cadre d'IA conçu pour surmonter ces limitations dans l'analyse des radiographies du thorax. MedRAX fonctionne en coordonnant une série d'outils d'IA spécialisés, chacun étant compétent dans des tâches spécifiques telles que la détection de maladies, l'identification et le tracé de structures anatomiques, ou la réponse à des questions détaillées basées sur l'image. Le système sélectionne et séquence dynamiquement ces outils, en intégrant leurs résultats pour répondre à des requêtes médicales complexes, sans nécessiter de réapprentissage du cadre de base lorsque des outils sont ajoutés ou modifiés. Cette approche permet à MedRAX d'offrir des analyses plus précises, détaillées et interprétables des radiographies du thorax par rapport aux méthodes existantes, ce qui représente une avancée significative vers l'application pratique de l'IA en radiologie. Le système vise à améliorer l'efficacité du diagnostic, à réduire le risque d'erreur et à accroître la clarté des informations fournies par l'IA, ce qui permet d'aider les professionnels de la santé et d'améliorer potentiellement les soins aux patients grâce à une assistance plus robuste de l'IA.

MixMin : Recherche de mélanges de données par minimisation convexe

Anvith Thudi, Evianne Rovers, Yangjun Ruan, Tristan Thrush, Chris Maddison (membre de la faculté Vector)

Résumé

Les pipelines modernes d'apprentissage automatique combinent et mélangent de plus en plus de données provenant de sources diverses et disparates, par exemple pour le pré-entraînement de grands modèles de langage. Pourtant, trouver le mélange de données optimal est un problème difficile et ouvert. Nous formalisons ce problème de mélange de données comme un objectif à deux niveaux : le meilleur mélange est celui qui conduirait au meilleur modèle pour un objectif en aval. Malheureusement, cet objectif est généralement difficile à atteindre. Dans cet article, nous observons que l'objectif de mélange de données à deux niveaux devient convexe à mesure que notre classe de modèles s'élargit. Nous développons et étudions une approche basée sur le gradient pour optimiser cet objectif convexe, que nous appelons MixMin, et nous la testons sur des tâches de modélisation linguistique et de chimie. MixMin est la seule méthode qui améliore uniformément le mélange de données dans toutes nos expériences. Avec MixMin, nous avons amélioré le mélange de données en utilisant moins de 0,2% de calcul supplémentaire pour un modèle pythia-$410M$ entraîné sur $8.2B$ tokens, résultant entre 1-5% d'amélioration relative de la log-vraisemblance négative sur PIQA, ARC Easy, SciQ, et OpenWebMath. Nous avons constaté que les mélanges MixMin pour les petits modèles amélioraient la formation des modèles plus grands, ce qui suggère que les mélanges MixMin ne varient pas en fonction de l'échelle. En mélangeant des données d'essais biologiques pour entraîner un modèle XGBoost, nous avons constaté des améliorations des scores de précision moyens de 0,03 à 0,15 $.

Résumé

Pour que l'apprentissage automatique soit performant, il faut disposer d'un ensemble de données pertinent pour la tâche que l'on souhaite apprendre. Lorsque l'on dispose de nombreuses sources de données, le problème de savoir comment constituer un bon ensemble de données à partir de ces sources pose un problème d'optimisation typiquement difficile. Dans cet article, nous avons montré que cette optimisation peut être simplifiée si nous formons d'abord un modèle (bon marché) sur chacune de nos sources de données. Nous avons ainsi fourni une méthode pour créer de meilleurs ensembles de données, ce qui a permis d'améliorer les tâches de modélisation linguistique et de chimie. Notre travail ouvre la voie à la recherche d'ensembles de données utiles pour des tâches où les données sont généralement rares.

Optimisation du budget multisession pour l'apprentissage fédéré basé sur des enchères directes

Xiaoli Tang, Han Yu, Zengxiang Li, Xiaoxiao Li (membre de la faculté Vector)

Résumé

L'apprentissage fédéré par enchères (AFL) est devenu un domaine de recherche important ces dernières années. Les stratégies dominantes pour les consommateurs de données FL (DC) supposent que l'ensemble de l'équipe des propriétaires de données (DO) requis pour une tâche FL doit être réunie avant que la formation puisse commencer. Dans la pratique, un DC peut déclencher plusieurs fois le processus de formation au FL. Les détenteurs de données peuvent donc être progressivement recrutés au cours de plusieurs sessions de formation au modèle FL. Les stratégies d'appel d'offres existantes pour les DC AFL ne sont pas conçues pour gérer de tels scénarios. Par conséquent, le problème de l'AFL multi-sessions reste ouvert. Pour résoudre ce problème, nous proposons la stratégie d'optimisation budgétaire multisession pour l'apprentissage fédéré par enchères (MBOS-AFL). Basée sur l'apprentissage par renforcement hiérarchique, MBOS-AFL optimise conjointement le rythme budgétaire entre les sessions et les enchères intra-session pour les DC AFL, dans le but de maximiser l'utilité totale. Des expériences approfondies sur six ensembles de données de référence montrent que cette méthode est nettement plus performante que sept approches de pointe. En moyenne, \methodname{} permet d'obtenir une utilité supérieure de 12,28 %, 14,52 % de données supplémentaires acquises par le biais d'enchères pour un budget donné, et une précision de test supérieure de 1,23 % obtenue par le modèle FL résultant par rapport à la meilleure base de référence. À notre connaissance, il s'agit de la première méthode d'aide à la décision pour l'optimisation du budget avec une capacité d'accélération du budget conçue pour les centres de distribution dans le cadre d'un système d'enchères à terme multisession.

Résumé

L'apprentissage fédéré par enchères (AFL) est devenu un domaine de recherche important ces dernières années. Les stratégies dominantes pour les consommateurs de données FL (DC) supposent que l'ensemble de l'équipe des propriétaires de données (DO) requis pour une tâche FL doit être réunie avant que la formation puisse commencer. Dans la pratique, un DC peut déclencher plusieurs fois le processus de formation au FL. Les détenteurs de données peuvent donc être progressivement recrutés au cours de plusieurs sessions de formation au modèle FL. Les stratégies d'appel d'offres existantes pour les DC AFL ne sont pas conçues pour gérer de tels scénarios. Par conséquent, le problème de l'AFL multi-sessions reste ouvert. Pour résoudre ce problème, nous proposons la stratégie d'optimisation budgétaire multisession pour l'apprentissage fédéré par enchères (MBOS-AFL). Basée sur l'apprentissage par renforcement hiérarchique, MBOS-AFL optimise conjointement le rythme budgétaire entre les sessions et les enchères intra-session pour les DC AFL, dans le but de maximiser l'utilité totale. Des expériences approfondies sur six ensembles de données de référence montrent qu'elle surpasse de manière significative sept approches de pointe. En moyenne, MBOS-AFL permet d'obtenir une utilité supérieure de 12,28 %, une augmentation de 14,52 % des données acquises par les enchères pour un budget donné, et une précision de test supérieure de 1,23 % obtenue par le modèle FL résultant par rapport à la meilleure approche de référence. À notre connaissance, il s'agit de la première méthode d'aide à la décision pour l'optimisation du budget avec une capacité d'accélération du budget conçue pour les DC dans le cadre de l'AFL prospectif multisession.

L'importance de la gaussianisation des représentations

Daniel Eftekhari, Vardan Papyan (affilié à la faculté Vector)

Résumé

La distribution normale joue un rôle central dans la théorie de l'information - elle est à la fois la distribution du signal dans le meilleur des cas et la distribution du bruit dans le pire des cas, possède la plus grande capacité de représentation de toutes les distributions et offre une équivalence entre l'absence de corrélation et l'indépendance pour les distributions conjointes. La prise en compte de la moyenne et de la variance des activations à travers les couches des réseaux neuronaux profonds a eu un effet significatif sur l'efficacité de leur formation, mais il est rare qu'une prescription concernant précisément la distribution que ces activations devraient prendre, et la manière d'y parvenir, ait été proposée. Motivés par les propriétés de la distribution normale en théorie de l'information, nous abordons cette question et présentons simultanément la normalisation de la normalité : une nouvelle couche de normalisation qui encourage la normalité dans les représentations des caractéristiques des réseaux neuronaux à l'aide de la transformée de puissance et qui utilise un bruit gaussien additif pendant l'entraînement. Nos expériences démontrent de manière exhaustive l'efficacité de la normalisation de la normalité, en ce qui concerne sa performance de généralisation sur un ensemble de combinaisons de modèles et d'ensembles de données largement utilisés, sa forte performance à travers divers facteurs communs de variation tels que la largeur du modèle, la profondeur et la taille du mini-lot d'entraînement, son aptitude à être utilisée partout où les couches de normalisation existantes sont utilisées de manière conventionnelle, et comme moyen d'améliorer la robustesse du modèle à des perturbations aléatoires.

Résumé

La réussite de la formation des réseaux neuronaux profonds dépend fortement de la manière dont les données sont représentées, lorsqu'elles sont traitées à travers les couches d'un réseau. Jusqu'à présent, le contrôle de la moyenne et de la dispersion de ces représentations était la principale approche utilisée pour aider les réseaux neuronaux à s'entraîner efficacement. Dans ce travail, nous avons en outre motivé une distribution spécifique que les représentations des réseaux neuronaux devraient suivre, et matérialisé ce choix de distribution à l'aide d'une nouvelle couche que nous avons développée. Nos expériences et notre analyse ont démontré de manière exhaustive l'efficacité de cette nouvelle couche.

Sur la capacité d'apprentissage des classes de distribution avec des adversaires adaptatifs

Tosca Lechner (boursière postdoctorale distinguée de Vector), Alex Bie, Gautam Kamath (membre de la faculté de Vector)

Résumé

Nous examinons la question de l'apprenabilité des classes de distribution en présence d'adversaires adaptatifs, c'est-à-dire d'adversaires capables d'intercepter les échantillons demandés par un apprenant et d'appliquer des manipulations en toute connaissance des échantillons avant de les transmettre à l'apprenant. Cela contraste avec les adversaires inconscients, qui ne peuvent modifier que la distribution sous-jacente dont proviennent les échantillons, mais pas leur nature i.i.d.\. Nous formulons une notion générale de la capacité d'apprentissage en ce qui concerne les adversaires adaptatifs, en tenant compte du budget de l'adversaire. Nous montrons que la capacité d'apprentissage par rapport à des adversaires adaptatifs additifs est une condition strictement plus forte que la capacité d'apprentissage par rapport à des adversaires oblivides additifs.

Résumé

La généralisation à partir de données d'apprentissage est à la base de la plupart des processus d'apprentissage automatique. Souvent, ces données d'apprentissage sont supposées être générées directement à partir des phénomènes que l'on souhaite apprendre. Dans notre travail, nous étudions la situation dans laquelle un adversaire peut manipuler les données d'apprentissage avant que l'apprenant ne puisse les voir. Nous étudions les adversaires adaptatifs, qui ont accès à l'ensemble des données d'apprentissage et peuvent donc les manipuler en toute connaissance de cause. Nous les opposons aux adversaires inconscients, qui n'ont connaissance que du processus de génération des données, mais pas des données d'apprentissage elles-mêmes. Nous montrons que les adversaires adaptatifs peuvent être strictement plus forts que les adversaires inconscients. En particulier, nous étudions les adversaires additifs, qui peuvent ajouter des points de données, et les adversaires soustractifs, qui peuvent supprimer des points de données. Nous démontrons une séparation entre les adversaires adaptatifs additifs et les adversaires adaptatifs inconscients. Ainsi, nous montrons que dans certaines situations, l'ajout de points de données lorsque l'on connaît un échantillon peut gravement nuire au processus d'apprentissage, alors que des manipulations additives similaires sur le processus de génération de données ne nuiront pas trop au processus d'apprentissage.

Optimisation des distributions de bruit pour la confidentialité différentielle

Atefeh Gilani, Felipe Gomez, Shahab Asoodeh (affilié à la faculté Vector), Flavio Calmon, Oliver Kosut, Lalitha Sankar

Résumé

Nous proposons un cadre d'optimisation unifié pour concevoir des distributions de bruit continues et discrètes qui garantissent la confidentialité différentielle (DP) en minimisant la DP de R\'enyi, une variante de la DP, sous une contrainte de coût. Le DP de R\'enyi présente l'avantage qu'en considérant différentes valeurs du paramètre de R\'enyi $\alpha$, nous pouvons adapter notre optimisation à n'importe quel nombre de compositions. Pour résoudre le problème d'optimisation, nous le réduisons à une formulation convexe à dimension finie et effectuons une descente de gradient préconditionnée. Les distributions de bruit obtenues sont ensuite comparées à leurs équivalents gaussiens et laplaciens. Les résultats numériques démontrent que nos distributions optimisées sont systématiquement meilleures, avec des améliorations significatives des garanties $(\varepsilon, \delta)$-DP dans les régimes de composition modérée, par rapport aux distributions gaussiennes et laplaciennes avec la même variance.

Résumé

La protection des informations sensibles est une préoccupation majeure à l'ère du big data. La confidentialité différentielle (DP) est une méthode populaire pour garantir la confidentialité en ajoutant un bruit aléatoire aux données, ce qui rend difficile l'identification des individus. Cependant, il est essentiel de choisir le bon type de bruit - trop de bruit peut ruiner la précision des données, et trop peu peut ne pas protéger la vie privée. Dans ce travail, nous introduisons une nouvelle façon de trouver la meilleure distribution de bruit pour une garantie de confidentialité donnée. Notre méthode améliore la précision des résultats tout en respectant des normes strictes en matière de protection de la vie privée. Nous montrons que notre bruit optimisé fonctionne mieux que les types de bruit couramment utilisés, tels que le bruit gaussien ou le bruit de Laplace, dans différents ensembles de données et paramètres de confidentialité. Cette approche peut contribuer à rendre l'apprentissage automatique préservant la vie privée plus fiable et plus efficace dans les applications du monde réel.

PANDAS : Améliorer le cassage de prison à l'aide de l'affirmation positive, de la démonstration négative et de l'échantillonnage adaptatif *

Avery Ma, Yangchen Pan, Amir-massoud Farahmand (affilié à la faculté Vector)

Résumé

Le jailbreaking Many-shot contourne l'alignement de sécurité des grands modèles de langage en exploitant leur capacité à traiter de longues séquences d'entrée. Pour ce faire, l'invite cible malveillante est précédée de centaines de tours de conversation fabriqués entre l'utilisateur et le modèle. Ces échanges fabriqués sont échantillonnés de manière aléatoire à partir d'un ensemble de questions et de réponses malveillantes, ce qui donne l'impression que le modèle s'est déjà conformé aux instructions malveillantes. Dans cet article, nous présentons PANDAS : une technique hybride qui améliore le jailbreaking à plusieurs coups en modifiant ces dialogues fabriqués avec des affirmations positives, des démonstrations négatives et une méthode d'échantillonnage adaptatif optimisée adaptée au sujet de l'invite cible. Des expériences approfondies sur AdvBench et HarmBench, utilisant des LLM de pointe, démontrent que PANDAS surpasse de manière significative les méthodes de base dans des scénarios à contexte long. Grâce à une analyse de l'attention, nous donnons un aperçu de la manière dont les vulnérabilités du contexte long sont exploitées et nous montrons comment PANDAS améliore encore le jailbreaking à plusieurs coups.

Résumé

Il est possible de tromper les grands modèles de langage pour qu'ils produisent des résultats dangereux en les surchargeant avec de longues et fausses conversations. Ces conversations sont conçues pour donner l'impression que le modèle a déjà suivi de nombreuses fois des instructions dangereuses. Dans cet article, nous présentons PANDAS, une technique qui améliore ce type d'attaque en modifiant les fausses conversations avec des phrases d'affirmation positives, des démonstrations négatives et une sélection de contenu plus ciblée. Les résultats obtenus sur des modèles open-source de pointe montrent que PANDAS est plus efficace pour obtenir des résultats nuisibles que les méthodes précédentes. Nous analysons également les résultats intermédiaires des modèles pour comprendre l'effet de PANDAS.

Position : Au-delà de l'assistance - Réimaginer les LLM en tant que co-créateurs éthiques et adaptatifs dans les soins de santé mentale

Abeer Badawi, Md Tahmid Rahman Laskar, Jimmy Huang, Shaina Raza (chercheur en apprentissage automatique appliqué chez Vector), Elham Dolatabadi (membre affilié de la faculté Vector)

Résumé

Cette prise de position plaide en faveur d'un changement fondamental dans la manière dont les grands modèles de langage (LLM) sont intégrés dans le domaine des soins de santé mentale. Nous plaidons en faveur de leur rôle de cocréateurs plutôt que de simples outils d'assistance. Bien que les LLM aient le potentiel d'améliorer l'accessibilité, la personnalisation et l'intervention en cas de crise, leur adoption reste limitée en raison de préoccupations liées aux préjugés, à l'évaluation, à la dépendance excessive, à la déshumanisation et aux incertitudes réglementaires. Pour relever ces défis, nous proposons deux voies structurées : les lignes directrices de mise en œuvre de SAFE-I pour un déploiement éthique et responsable, et le cadre d'évaluation HAAS-E pour une évaluation multidimensionnelle centrée sur l'être humain. SAFE-I fournit un schéma directeur pour la gouvernance des données, l'ingénierie des modèles adaptatifs et l'intégration dans le monde réel, en veillant à ce que les LLM s'alignent sur les normes cliniques et éthiques. HAAS-E introduit des paramètres d'évaluation qui vont au-delà de la précision technique pour mesurer la fiabilité, l'empathie, la sensibilité culturelle et la capacité d'action. Nous appelons à l'adoption de ces approches structurées afin d'établir un modèle responsable et évolutif pour le soutien à la santé mentale par les LLM, en veillant à ce que l'IA complète - et non remplace - l'expertise humaine.

Résumé

Et si l'IA pouvait être votre coéquipier, et non votre remplaçant, dans la prestation de soins de santé mentale compatissants ? Alors que la génération des natifs du numérique se tourne vers des outils tels que ChatGPT pour tout ce qui concerne les devoirs scolaires et les conseils de carrière, il ne faudra pas attendre longtemps avant qu'elle ne s'appuie sur l'IA pour un soutien émotionnel et en matière de santé mentale. La question n'est plus de savoir si les LLM ont leur place dans le domaine de la santé mentale, mais comment ils peuvent y contribuer de manière sûre, éthique et significative. Cet article soutient que les LLM sont prêts à faire plus qu'automatiser des tâches lorsqu'ils sont conçus en tenant compte de considérations éthiques et de sécurité. Ces outils peuvent contribuer à alléger le fardeau des équipes surchargées, à fournir des conseils personnalisés et à offrir un soutien en temps opportun. Mais l'enjeu est de taille : en l'absence de garanties adéquates, les MLD peuvent causer de graves préjudices, en diffusant des préjugés et des informations erronées, ou en amenant les utilisateurs à accorder une confiance déplacée à leurs réponses. Il est essentiel de mettre en place des garanties solides pour s'assurer que ces outils sont sûrs, fiables et conformes aux normes éthiques. Pour traduire cette vision en action, notre position propose deux cadres : SAFE-i, qui soutient une conception et un déploiement responsables grâce à trois piliers : SAFE-i, qui soutient une conception et un déploiement responsables grâce à trois piliers : les fondements éthiques des données, l'ingénierie des modèles et l'intégration dans le monde réel. HAAS-e, qui propose un cadre d'évaluation centré sur l'humain, construit autour de quatre dimensions essentielles basées sur la fiabilité, l'équité, l'empathie et l'actionnabilité, en introduisant des mesures telles que le score d'empathie contextuelle (CES), l'indice de sensibilité culturelle (CSI), le score d'appropriation de la personnalisation (PAS) et l'évaluation de l'actionnabilité et de la sécurité (ASA). Ensemble, ces outils offrent une feuille de route pratique pour aligner les systèmes d'IA sur les valeurs humaines, les objectifs cliniques et les divers contextes culturels, permettant ainsi aux professionnels de la santé mentale de disposer de collaborateurs d'IA adaptatifs, éthiques et empathiques.

Position : L'humanité est confrontée au risque existentiel d'une déresponsabilisation progressive

Jan Kulveit, Raymond Douglas, Nora Ammann, Deger Turan, David Krueger, David Duvenaud (membre de la faculté Vector)

Résumé

Cet article examine les risques systémiques posés par les progrès progressifs de l'intelligence artificielle, en développant le concept de "déresponsabilisation progressive", par opposition aux scénarios de prise de contrôle brutale couramment évoqués dans le domaine de la sécurité de l'IA. Nous analysons comment les améliorations progressives des capacités de l'IA peuvent saper l'influence humaine sur les systèmes à grande échelle dont dépend la société, notamment l'économie, la culture et les États-nations. Comme l'IA remplace de plus en plus le travail humain et la cognition dans ces domaines, elle peut affaiblir à la fois les mécanismes explicites de contrôle humain (comme le vote et le choix du consommateur) et les alignements implicites sur les préférences humaines qui découlent souvent de la dépendance des systèmes sociétaux à l'égard de la participation humaine pour fonctionner. En outre, les systèmes d'IA peuvent amplifier les désalignements existants avec les préférences humaines en optimisant ces systèmes de manière plus puissante. Ces distorsions entre domaines peuvent se renforcer mutuellement : le pouvoir économique façonne les récits culturels et les décisions politiques, tandis que les changements culturels modifient le comportement économique et politique. Nous soutenons que cette dynamique pourrait conduire à une perte effectivement irréversible de l'influence humaine sur les systèmes sociétaux cruciaux, précipitant une catastrophe existentielle par la déresponsabilisation permanente de l'humanité. Cette analyse suggère la nécessité d'une recherche technique et d'approches de gouvernance qui abordent spécifiquement le risque d'érosion progressive de l'influence humaine sur les systèmes sociétaux interconnectés.

Résumé

Les scénarios de risque liés à l'IA décrivent généralement une perte relativement soudaine du contrôle humain au profit des IA, dépassant les humains individuels et les institutions humaines, en raison d'une augmentation soudaine des capacités de l'IA ou d'une trahison coordonnée. Cependant, nous soutenons que même une augmentation progressive des capacités de l'IA, sans aucune recherche coordonnée de pouvoir, pose un risque substantiel de déresponsabilisation humaine à terme. Cette perte d'influence humaine sera principalement due au fait que les machines seront plus compétitives que les humains dans presque toutes les fonctions de la société, telles que le travail économique, la prise de décision, la création artistique et même la camaraderie. Une perte progressive du contrôle de notre propre civilisation peut sembler invraisemblable. Les bouleversements technologiques n'ont-ils pas généralement amélioré le bien-être global de l'humanité ? Nous soutenons que l'alignement des systèmes sociétaux sur les intérêts humains n'a été stable qu'en raison de la nécessité de la participation humaine pour la prospérité des économies, des États et des cultures. Une fois que cette participation humaine sera remplacée par des machines plus compétitives, les incitations à la croissance de nos institutions ne seront plus liées à la nécessité d'assurer l'épanouissement de l'homme. Les décideurs à tous les niveaux seront bientôt confrontés à des pressions visant à réduire la participation humaine sur les marchés du travail, dans les structures de gouvernance, dans la production culturelle et même dans les interactions sociales. Ceux qui résisteront à ces pressions finiront par être déplacés par ceux qui ne le feront pas. Pourtant, les humains ne remarqueraient-ils pas ce qui se passe et ne se coordonneraient-ils pas pour y mettre un terme ? Pas nécessairement. Ce qui rend cette transition particulièrement difficile à contrer, c'est que les pressions exercées sur chaque système sociétal se répercutent sur les autres. Par exemple, nous pourrions tenter d'utiliser le pouvoir de l'État et les attitudes culturelles pour préserver le pouvoir économique de l'homme. Toutefois, les incitations économiques qui poussent les entreprises à remplacer les humains par l'IA les pousseront également à influencer les États et la culture pour soutenir ce changement, en utilisant leur pouvoir économique croissant pour façonner à la fois la politique et l'opinion publique, ce qui permettra à son tour à ces entreprises d'accroître encore leur pouvoir économique. Une fois que l'IA aura commencé à supplanter l'homme, les mécanismes de rétroaction existants qui encouragent l'influence et l'épanouissement de l'homme commenceront à s'effondrer. Par exemple, les États financés principalement par des taxes sur les profits de l'IA plutôt que par le travail de leurs citoyens ne seront guère incités à assurer la représentation des citoyens. Cela pourrait se produire au moment même où l'IA offre aux États une influence sans précédent sur la culture et le comportement humains, ce qui pourrait rendre la coordination entre les humains plus difficile, réduisant ainsi davantage la capacité des humains à résister à de telles pressions. Nous décrivons plus en détail ces mécanismes et boucles de rétroaction, ainsi que d'autres, dans le présent ouvrage. Bien que nous fournissions quelques propositions pour ralentir ou éviter ce processus, et que nous examinions les discussions connexes, nous soulignons que personne ne dispose d'un plan concret et plausible pour arrêter la déresponsabilisation progressive de l'homme et que les méthodes visant à aligner les systèmes d'IA individuels sur les intentions de leurs concepteurs ne sont pas suffisantes. Parce que cette déresponsabilisation serait globale et permanente, et parce que l'épanouissement de l'homme nécessite des ressources substantielles à l'échelle mondiale, elle pourrait vraisemblablement conduire à l'extinction de l'homme ou à des résultats similaires.

Position : La pérennisation des données générées par l'homme pour le ML nécessite un recentrage sur les motivations humaines intrinsèques.

Sebastin Santy, Prasanta Bhattacharya, Manoel Ribeiro, Kelsey Allen (membre de la faculté Vector), Sewoong Oh

Résumé

Les progrès de l'IA se sont appuyés sur des données générées par l'homme, depuis les marchés d'annotateurs jusqu'à l'Internet au sens large. Cependant, l'utilisation généralisée de grands modèles de langage menace désormais la qualité et l'intégrité des données générées par l'homme sur ces mêmes plateformes. Nous soutenons que ce problème va au-delà du défi immédiat que représente le filtrage du contenu généré par l'IA - il révèle des failles plus profondes dans la manière dont les systèmes de collecte de données sont conçus. Les systèmes existants privilégient souvent la vitesse, l'échelle et l'efficacité au détriment de la motivation humaine intrinsèque, ce qui entraîne une baisse de l'engagement et de la qualité des données. Nous proposons de repenser les systèmes de collecte de données pour les aligner sur les motivations intrinsèques des contributeurs - plutôt que de s'appuyer uniquement sur des incitations externes - afin de soutenir la collecte de données de haute qualité à grande échelle tout en maintenant la confiance des contributeurs et leur participation à long terme.

Résumé

Les discussions sur la qualité des données dans le domaine de l'apprentissage automatique se concentrent souvent sur des indicateurs et des définitions techniques, négligeant les sources humaines qui génèrent ces données. Une grande partie des données actuelles provient de la participation des utilisateurs sur les plateformes en ligne. Cela nous a amenés à nous poser la question suivante : pouvons-nous apprendre quelque chose sur le maintien de la qualité des données en examinant la manière dont les humains participent à ces plateformes ? Nous examinons le compromis quantité-qualité dans la génération de données sous l'angle de la motivation humaine. En nous inspirant des sciences sociales, nous montrons comment une dépendance excessive à l'égard des incitations externes peut saper la motivation intrinsèque. Nous proposons un changement : concevoir des environnements attrayants et suffisamment incitatifs (par exemple, des jeux en ligne) qui encouragent une participation significative tout en produisant des données de haute qualité. Notre article met en lumière les forces de motivation qui sous-tendent la génération de données en ligne pour l'IA/ML et illustre des cas de systèmes passés qui ont réussi à naviguer dans le compromis quantité-qualité pour générer des données humaines significatives. Nous mettons également l'accent sur des considérations de conception essentielles pour construire les environnements de collecte de données fiables du futur qui non seulement produiront des données de haute qualité, mais respecteront et soutiendront également les personnes qui y contribuent.

Position : La partie la plus coûteuse d'un LLM *devrait* être ses données de formation

Nikhil Kandpal, Colin Raffel (membre de la faculté Vector)

Résumé

La formation de grands modèles de langage (LLM) est une entreprise de plus en plus coûteuse en raison des exigences croissantes en matière de calcul, des demandes de matériel, des coûts énergétiques et de la main-d'œuvre technique. Outre les coûts de formation, un coût souvent négligé (et rarement payé) est le travail humain requis pour écrire les trillions de mots de texte utilisés pour former les LLM de pointe. Dans cette prise de position, nous visons à attribuer une valeur monétaire à ce travail et à démontrer que la partie la plus coûteuse de la production d'un LLM *devrait* être la compensation fournie aux producteurs de données de formation pour leur travail. Pour étayer cette position, nous étudions 64 LLM publiés entre 2016 et 2024, en décomposant à la fois le coût de la formation des modèles et le coût hypothétique de la création des données de formation. Notre analyse indique que même avec une estimation extrêmement conservatrice du montant de la compensation à fournir pour le travail humain qui a servi à créer les données de formation, les coûts des ensembles de données de formation de ces modèles sont de 1 à 3 ordres de grandeur plus élevés que les coûts de formation des modèles eux-mêmes. Face à l'écart considérable entre la valeur des données de formation et l'absence actuelle de compensation pour leur création, nous soulignons et discutons des orientations de recherche qui pourraient permettre des pratiques plus équitables à l'avenir.

Résumé

Training a modern Large Language Model (LLM) is an incredibly expensive endeavor due to the cost of specialized hardware, energy required to run that hardware, and the enormous engineering labor needed to architect large-scale training systems. However, an often overlooked (and seldom paid) expense is the human labor behind these models’ training data. Every LLM is built on an unfathomable amount of human effort: trillions of carefully written words sourced from books, academic papers, codebases, social media, and more. This position paper aims to assign a monetary value to this labor and argues that the most expensive part of producing an LLM \emph{should} be the compensation provided to training data producers for their work. To support this position, we study 64 LLMs released between 2016 and 2024, estimating what it would cost to pay people to produce their training datasets from scratch. Even under highly conservative estimates of wage rates, the costs of these models’ training datasets are 10-1000 times larger than the costs to train the models themselves, representing a significant financial liability for LLM providers. In the face of the massive gap between the value of training data and the lack of compensation for its creation, we highlight and discuss research directions that could enable fairer practices in the future.

QuEst : Amélioration des estimations des mesures distributionnelles basées sur le quantile à l'aide de prédictions de modèles

Zhun Deng, Thomas Zollo, Benjamin Eyre, Amogh Inamdar, David Madras, Richard Zemel (membre de la faculté Vector)

Résumé

Les modèles d'apprentissage automatique devenant de plus en plus compétents, leurs prédictions sont utilisées pour compléter des données rares ou coûteuses afin d'estimer des quantités importantes. En combinant un petit ensemble de données observées de haute fidélité (c'est-à-dire des mesures authentiques) avec un plus grand ensemble de données imputées (c'est-à-dire des prédictions de modèles), les praticiens peuvent améliorer la qualité de l'estimation au-delà de ce que l'une ou l'autre source peut fournir isolément. Bien que ce paradigme soit prometteur, les cadres existants se concentrent étroitement sur l'estimation des moyennes ou des quantiles uniques, ce qui limite leur applicabilité dans de nombreux domaines et cas d'utilisation critiques. Pour relever ce défi, nous présentons **QuEst**, un cadre permettant d'incorporer des données observées et imputées afin d'estimer et de fournir des intervalles de confiance rigoureux pour les mesures de distribution basées sur les quantiles. Ces mesures basées sur les quantiles comprennent des mesures de queue telles que le CVaR, des segments de population tels que les quartiles, et d'autres quantités clés d'intérêt dans des domaines tels que l'économie, la sociologie, l'éducation et la médecine. Dans le cadre de QuEst, nous introduisons également un algorithme permettant d'estimer ces statistiques pour des mesures et métriques multidimensionnelles. En outre, nous proposons une nouvelle méthode basée sur une fonction spline pour optimiser notre méthode (ainsi que d'autres méthodes existantes pour ce type d'estimation hybride). Nous démontrons l'utilité de notre cadre à travers des expériences de modélisation économique, de sondage d'opinion et d'auto-évaluation de modèles linguistiques.

Résumé

Nous présentons QuEst, une méthode permettant de combiner des données réelles observées avec des prédictions de modèles d'apprentissage automatique afin de produire de meilleures estimations de quantités importantes. Notre cadre est particulièrement utile pour améliorer les résultats expérimentaux dans des domaines tels que l'économie, la sociologie, l'éducation, la médecine, ainsi que pour évaluer les modèles de langage.

Réfléchir puis planifier : Planification hors ligne basée sur un modèle à travers une lentille doublement bayésienne

Jihwan Jeong, Xiaoyu Wang, Jingmin Wang, Scott Sanner (affilié à la faculté Vector), Pascal Poupart (membre de la faculté Vector)

Résumé

L'apprentissage par renforcement hors ligne est crucial lorsque l'exploration en ligne est coûteuse ou dangereuse, mais il est souvent confronté à une grande incertitude épistémique en raison du manque de données. Les méthodes existantes reposent sur des politiques conservatrices fixes, ce qui limite l'adaptabilité et la généralisation. Pour résoudre ce problème, nous proposons Reflect-then-Plan (RefPlan), une nouvelle approche de planification hors ligne basée sur un modèle (MB) doublement bayésien. RefPlan unifie la modélisation de l'incertitude et la planification basée sur un modèle en refondant la planification en tant qu'estimation bayésienne a posteriori. Au moment du déploiement, il met à jour une croyance sur la dynamique de l'environnement à l'aide d'observations en temps réel, en incorporant l'incertitude dans la planification MB par le biais de la marginalisation. Les résultats empiriques obtenus sur des points de référence standard montrent que RefPlan améliore de manière significative les performances des politiques RL conservatrices hors ligne. En particulier, RefPlan maintient une performance robuste en cas d'incertitude épistémique élevée et de données limitées, tout en faisant preuve de résilience face à la dynamique changeante de l'environnement, améliorant ainsi la flexibilité, la généralisation et la robustesse des politiques apprises hors ligne.

Résumé

Imaginez que l'on apprenne à une IA à effectuer une tâche, comme la navigation dans un bâtiment, en utilisant uniquement un ensemble fixe d'exemples enregistrés. Lorsqu'elle est confrontée à une nouvelle situation qu'elle n'a jamais vue auparavant, l'IA peut devenir confuse et prendre de mauvaises décisions parce que ses connaissances sont incomplètes. De nombreuses approches existantes rendent l'IA trop prudente pour éviter les erreurs, mais cela l'empêche de s'adapter efficacement. Nous présentons une nouvelle méthode appelée Reflect-then-Plan (RefPlan) qui aide l'IA à raisonner intelligemment sur ce qu'elle ne sait pas. Notre méthode fonctionne en deux étapes : * Réfléchir : Pendant que l'IA fonctionne, elle "réfléchit" continuellement à ses expériences récentes - les actions qu'elle a entreprises et ce qui s'est passé en conséquence - pour mettre à jour sa compréhension de l'environnement spécifique dans lequel elle se trouve actuellement. * Planifier : Lorsqu'elle "planifie" sa prochaine action, l'IA ne s'appuie pas sur une prédiction unique et rigide de l'avenir. Au lieu de cela, il envisage une série de scénarios possibles fondés sur son incertitude, ce qui rend sa stratégie plus robuste face à l'inattendu. Nos résultats montrent que cette approche améliore considérablement les performances de l'IA, la rendant plus flexible et plus résistante, en particulier lorsqu'elle est confrontée à des situations inconnues, à des données limitées ou à des conditions changeantes.

Révéler les faiblesses du filigranage de texte par des attaques de réécriture d'auto-information

Yixin Cheng, Hongcheng Guo, Yangming Li, Leonid Sigal (membre de la faculté Vector)

Résumé

Le filigranage de texte vise à intégrer subtilement des signaux statistiques dans le texte en contrôlant le processus d'échantillonnage du modèle de langage large (LLM), ce qui permet aux détecteurs de filigrane de vérifier que la sortie a été générée par le modèle spécifié. La robustesse de ces algorithmes de filigrane est devenue un facteur clé dans l'évaluation de leur efficacité. Les algorithmes actuels de filigranage de texte intègrent les filigranes dans des jetons à forte entropie afin de garantir la qualité du texte. Dans cet article, nous révélons que cette conception apparemment bénigne peut être exploitée par des attaquants, ce qui présente un risque important pour la robustesse du filigrane. Nous présentons une attaque générique efficace de paraphrase, l'attaque de réécriture par auto-information (SIRA), qui exploite la vulnérabilité en calculant l'auto-information de chaque jeton afin d'identifier les jetons modèles potentiels et d'effectuer une attaque ciblée. Notre travail met en évidence une vulnérabilité largement répandue dans les algorithmes de filigrane actuels. Les résultats expérimentaux montrent que SIRA atteint des taux de réussite de près de 100 % sur sept méthodes de filigrane récentes, avec seulement \.88 par million de jetons. Notre approche ne nécessite aucun accès aux algorithmes de filigrane ou au LLM filigrané et peut être transférée de manière transparente à n'importe quel LLM en tant que modèle d'attaque, même à des modèles de niveau mobile. Nos résultats soulignent le besoin urgent d'un filigrane plus robuste.

Résumé

Les progrès rapides des grands modèles linguistiques (LLM) ont suscité des inquiétudes quant à leur utilisation abusive potentielle, comme la diffusion de fausses informations et la menace de l'intégrité académique. Pour y remédier, le filigrane textuel est apparu comme une solution prometteuse, intégrant subtilement des motifs indétectables dans le texte généré par le LLM afin d'en vérifier l'origine. Toutefois, l'efficacité de ces filigranes dépend de leur robustesse face aux attaques qui tentent de les supprimer. Les méthodes d'attaque existantes sont souvent inefficaces, non ciblées, gourmandes en ressources et difficilement transférables d'un LLM à l'autre. Notre recherche présente l'attaque par réécriture de l'auto-information (SIRA), une attaque de paraphrase nouvelle et efficace qui révèle une vulnérabilité fondamentale dans les algorithmes actuels de filigranage de texte. Nous avons découvert que les techniques de filigrane intègrent des motifs dans des jetons à "haute entropie", c'est-à-dire des jetons à forte auto-information en raison de leur imprévisibilité et de leur faible probabilité. SIRA exploite ce phénomène en calculant l'auto-information de chaque jeton afin d'identifier et de masquer ces jetons potentiellement porteurs de filigrane. Nous utilisons ensuite un LLM pour effectuer une tâche ciblée de "remplissage dans l'espace", en réécrivant le texte masqué tout en préservant son intégrité sémantique. SIRA représente une avancée significative dans la compréhension et l'évaluation de la robustesse du filigrane LLM. Nos expériences montrent que SIRA atteint des taux de réussite de près de 100 % pour sept méthodes de filigrane récentes, à un coût très faible de 0,88 $ par million de jetons. Cette attaque ne nécessite aucune connaissance préalable de l'algorithme de filigrane ou du LLM utilisé, et elle est hautement transférable, même avec des modèles plus petits au niveau mobile. En exposant cette vulnérabilité généralisée, notre travail met en évidence le besoin urgent de développer des approches de filigrane plus robustes et adaptatives pour garantir la transparence et l'intégrité des contenus générés par l'IA.

Transformateurs auto-supervisés comme améliorateurs itératifs de solutions pour la satisfaction de contraintes

Yudong W Xu, Wenhao Li, Scott Sanner (affilié à la faculté Vector), Elias Khalil (affilié à la faculté Vector)

Résumé

Les CSP sont utilisés dans de nombreuses applications et l'accélération de leur résolution par l'apprentissage automatique est donc d'un grand intérêt. La plupart des approches existantes reposent sur l'apprentissage supervisé à partir de solutions réalisables ou sur l'apprentissage par renforcement, paradigmes qui nécessitent soit des solutions réalisables à ces CSP NP-Complets, soit des budgets d'entraînement importants et un signal de récompense complexe conçu par un expert. ConsFormer construit une solution à un CSP de manière itérative dans un processus qui imite la recherche locale. Au lieu d'utiliser des solutions réalisables comme données étiquetées, nous concevons des approximations différentiables des contraintes discrètes d'un CSP pour guider l'apprentissage du modèle. Notre modèle est formé pour améliorer les affectations aléatoires au cours d'une seule étape, mais il est déployé de manière itérative au moment du test, ce qui permet de contourner les goulets d'étranglement de l'apprentissage supervisé et de l'apprentissage par renforcement. Notre méthode peut s'attaquer aux CSP hors distribution simplement par des itérations supplémentaires.

Résumé

La résolution de problèmes dans le cadre de règles et de restrictions spécifiques fait partie de nombreuses tâches de la vie réelle, qu'il s'agisse de résoudre des puzzles comme le Sudoku ou de planifier les horaires de travail d'un employé. Ces problèmes sont souvent difficiles à résoudre, et même les meilleures méthodes traditionnelles peuvent se heurter à des difficultés lorsque les problèmes deviennent plus importants et plus complexes. L'intelligence artificielle a été utilisée pour résoudre ces problèmes plus efficacement. Cependant, de nombreuses méthodes existantes reposent sur l'existence d'exemples de bonnes solutions ou nécessitent de nombreux essais et erreurs, ce qui peut s'avérer lent ou peu pratique. Nous présentons ConsFormer, qui adopte une approche différente. Il entraîne un modèle d'intelligence artificielle à apporter de petites améliorations à une solution en une seule étape, sans avoir besoin de réponses correctes pendant l'entraînement. Une fois déployé, ConsFormer est utilisé de manière répétée pour apporter des améliorations régulières, en partant d'une supposition aléatoire et en l'affinant pas à pas. ConsFormer fonctionne pour différents problèmes et peut traiter des cas plus difficiles simplement en exécutant plus d'étapes d'amélioration. Cela en fait un outil prometteur pour résoudre efficacement des problèmes complexes de raisonnement par contraintes dans le monde réel.

Formation éparse à partir d'une initialisation aléatoire : Alignement des masques de billets de loterie à l'aide de la symétrie des poids

Mohammed Adnan, Rohan Jain, Ekansh Sharma, Rahul G. Krishnan (membre de la faculté Vector), Yani Ioannou

Résumé

L'hypothèse du ticket de loterie (LTH) suggère qu'il existe un masque LTH clairsemé et des poids qui permettent d'obtenir les mêmes performances de généralisation que le modèle dense tout en utilisant beaucoup moins de paramètres. Cependant, la recherche d'une solution LTH est coûteuse en termes de calcul, et le masque peu dense d'une LTH ne se généralise pas à d'autres initialisations aléatoires des poids. Des travaux récents ont suggéré que les réseaux neuronaux formés à partir d'une initialisation aléatoire trouvent des solutions dans le même bassin modulo permutation, et proposent une méthode pour aligner les modèles formés dans le même bassin de perte. Nous émettons l'hypothèse que le mauvais alignement des bassins est la raison pour laquelle les masques LTH ne se généralisent pas aux nouvelles initialisations aléatoires et proposons de permuter le masque LTH pour l'aligner sur le nouveau bassin d'optimisation lors de l'entraînement clairsemé à partir d'une initialisation aléatoire différente. Nous démontrons empiriquement une augmentation significative de la généralisation lors de l'entraînement épars à partir d'une initialisation aléatoire avec le masque permuté par rapport à l'utilisation du masque LTH non permuté, sur plusieurs ensembles de données (CIFAR-10/100 & ImageNet) et modèles (VGG11 & ResNet20/50).

Résumé

Les systèmes modernes d'intelligence artificielle (IA) sont incroyablement puissants, mais leur formation nécessite souvent d'énormes quantités de puissance de calcul et de données. Cela les rend coûteux et hors de portée pour de nombreux chercheurs et développeurs. Pour remédier à cette situation, les scientifiques ont exploré des modèles d'IA "plus épars", c'est-à-dire des systèmes qui n'utilisent qu'une petite fraction de leurs connexions potentielles, ce qui les rend beaucoup plus efficaces à former et à faire fonctionner. Cependant, un obstacle majeur réside dans le fait qu'une configuration de modèle clairsemé qui fonctionne bien avec un point de départ pour l'entraînement échoue souvent lorsque l'entraînement commence à partir d'un point de départ différent. Nos recherches ont permis d'en identifier la cause première : le désalignement. C'est un peu comme si l'on utilisait une clé (la configuration éparse) sur une serrure qui a été légèrement tournée : elle ne s'adapte tout simplement pas. Pour résoudre ce problème, nous avons mis au point une méthode permettant de "réaligner" la structure éparse de manière à ce qu'elle corresponde aux modèles d'un nouveau point de départ. Cet ajustement améliore considérablement les performances des modèles épars formés à partir de différents points de départ, les rendant presque aussi efficaces que leurs versions originales. Nos résultats facilitent et rendent plus pratique le développement de systèmes d'IA plus légers et plus efficaces, ouvrant la voie à une plus grande accessibilité et à l'innovation dans la recherche sur l'IA.

Déconvolution stochastique avant-arrière : Formation de modèles de diffusion avec des ensembles de données finis et bruités

Haoye Lu, Qifan Wu, Yaoliang Yu (membre de la faculté Vector)

Résumé

Les modèles génératifs récents basés sur la diffusion obtiennent des résultats remarquables en s'entraînant sur des ensembles massifs de données, mais cette pratique soulève des inquiétudes quant à la mémorisation et à la violation des droits d'auteur. Une solution proposée consiste à s'entraîner exclusivement sur des données bruitées susceptibles de poser des problèmes de droits d'auteur, en veillant à ce que le modèle n'observe jamais de contenu original. Cependant, à travers le prisme de la théorie de la déconvolution, nous montrons que, bien qu'il soit théoriquement possible d'apprendre la distribution des données à partir d'échantillons bruyants, le défi pratique que représente la collecte d'un nombre suffisant d'échantillons rend l'apprentissage réussi presque irréalisable. Pour surmonter cette limitation, nous proposons de pré-entraîner le modèle avec une petite fraction de données propres pour guider le processus de déconvolution. Combinée à notre méthode de déconvolution stochastique avant-arrière (SFBD), nous obtenons un FID de 6,31 $ sur CIFAR-10 avec seulement 4 % d'images propres (et 3,58 $ avec 10 % d'images propres). Théoriquement, nous prouvons que la méthode SFBD guide le modèle pour qu'il apprenne la vraie distribution des données. Ce résultat souligne également l'importance d'un pré-entraînement sur des données limitées mais propres ou sur des ensembles de données similaires. Des études empiriques confirment ces résultats et offrent des perspectives supplémentaires.

Résumé

Les modèles modernes de génération d'images - tels que ceux qui sous-tendent les outils artistiques d'IA - sont généralement entraînés sur des collections massives d'images. Cette pratique soulève toutefois d'importantes préoccupations : certaines des données d'entraînement peuvent être protégées par des droits d'auteur, et les modèles risquent de mémoriser et de reproduire ces contenus de manière trop fidèle. L'une des solutions proposées consiste à entraîner les modèles uniquement sur des versions bruitées (floues ou modifiées) des images, en veillant à ce que les originaux ne soient jamais vus directement. Cependant, dans la pratique, nous montrons qu'il est extrêmement difficile d'apprendre à partir de données bruitées uniquement - il faut un nombre d'échantillons excessivement élevé pour que l'apprentissage soit efficace. Dans ce travail, nous nous concentrons sur les modèles de diffusion et démontrons que l'introduction d'une petite fraction de données propres (originales), seulement 4 % ou 10 %, peut faire une différence substantielle. Nous proposons une méthode appelée déconvolution stochastique avant-arrière (SFBD), qui alterne entre le débruitage d'échantillons bruyants à l'aide du modèle actuel et le réentraînement du modèle à l'aide de ces résultats débruités. Ce processus permet au modèle d'apprendre progressivement à générer des images réalistes, même lorsque la plupart des données d'apprentissage sont bruitées. Nos expériences montrent que le SFBD permet d'obtenir une qualité d'image proche des modèles formés sur des ensembles de données totalement propres, tout en réduisant considérablement les risques juridiques et éthiques. Ce travail offre une voie prometteuse vers la formation de modèles génératifs de manière plus responsable et plus efficace.

Filtre d'adéquation : Un cadre statistique pour l'évaluation des modèles dans des conditions de déploiement réelles *

Angéline Pouget, Mohammad Yaghini, Stephan Rabanser, Nicolas Papernot (membre de la faculté Vector)

Résumé

Le déploiement de modèles d'apprentissage automatique dans des domaines critiques pour la sécurité pose un défi majeur : garantir la fiabilité des performances du modèle sur des données utilisateur en aval sans accès à des étiquettes de vérité de terrain pour une validation directe. Nous proposons le filtre d'adéquation, un nouveau cadre conçu pour détecter la détérioration des performances en utilisant des signaux d'adéquation - des caractéristiques de sortie de modèle qui sont sensibles aux changements de covariables et indicatives d'erreurs de prédiction potentielles. Le filtre d'adéquation évalue si la précision du classificateur sur les données utilisateur non étiquetées présente une dégradation significative par rapport à la précision mesurée sur l'ensemble de données de test étiquetées. Plus précisément, il veille à ce que cette dégradation ne dépasse pas une marge prédéfinie, qui représente la baisse maximale acceptable de la précision. Pour parvenir à une évaluation fiable des performances, nous regroupons les signaux d'adéquation pour les données de test et les données utilisateur et nous comparons ces distributions empiriques à l'aide de tests d'hypothèses statistiques, ce qui permet de mieux comprendre l'incertitude des décisions. Notre méthode modulaire s'adapte à différents modèles et domaines. Des évaluations empiriques portant sur différentes tâches de classification démontrent que le filtre d'adéquation détecte de manière fiable les écarts de performance dus au changement de covariable. Cela permet d'atténuer de manière proactive les défaillances potentielles dans les applications à fort enjeu.

Résumé

Les modèles d'apprentissage automatique apprennent à partir de données pour prendre des décisions, mais il peut être difficile de s'assurer qu'ils restent fiables lorsqu'ils sont confrontés à de nouvelles situations dans le monde réel. Cette recherche présente une nouvelle façon de vérifier si ces modèles commencent à commettre davantage d'erreurs avec de nouvelles données, en particulier lorsque nous ne pouvons pas facilement vérifier si leurs décisions sont correctes. La méthode consiste à examiner des indices subtils dans la manière dont le modèle se comporte avec des données familières et nouvelles afin de détecter si la qualité de ses décisions a diminué. Des expériences ont montré que cette approche permet de repérer avec succès un modèle qui éprouve des difficultés parce que les nouvelles informations sont différentes de celles auxquelles il était préparé. Cela permet de s'assurer que ces modèles d'apprentissage automatique fonctionnent correctement et qu'on peut leur faire confiance, en particulier dans les applications quotidiennes importantes.

Limites théoriques des ensembles à l'ère de la surparamétrisation *

Niclas Dern, John Cunningham, Geoff Pleiss (membre de la faculté Vector)

Résumé

Les ensembles classiques se généralisent mieux que n'importe quel modèle à composante unique. En revanche, des études empiriques récentes montrent que les ensembles modernes de réseaux neuronaux (surparamétrés) peuvent ne pas offrir d'avantage de généralisation inhérent par rapport à des réseaux neuronaux uniques mais plus grands. Cet article clarifie la manière dont les ensembles modernes surparamétrés diffèrent de leurs homologues classiques sous-paramétrés, en utilisant des ensembles de régresseurs à caractéristiques aléatoires (RF) comme base de développement de la théorie. Contrairement au régime sous-paramétrique, où l'assemblage induit généralement une régularisation et augmente la généralisation, nous prouvons avec des hypothèses minimales que les ensembles infinis de régresseurs RF surparamétriques deviennent ponctuellement équivalents à des régresseurs RF (uniques) de largeur infinie, et que les ensembles de largeur finie convergent rapidement vers des modèles uniques avec le même budget de paramètres. Ces résultats, qui sont exacts pour les modèles sans crête et approximatifs pour les petites pénalités de crête, impliquent que les ensembles surparamétrés et les grands modèles uniques présentent une généralisation presque identique. Nous caractérisons en outre la variance prédictive parmi les membres de l'ensemble, en démontrant qu'elle quantifie les effets attendus de l'augmentation de la capacité plutôt que de capturer toute notion conventionnelle d'incertitude. Nos résultats remettent en question les hypothèses courantes sur les avantages des ensembles dans des contextes surparamétriques, ce qui incite à reconsidérer la façon dont les intuitions des ensembles sous-paramétriques sont transférées aux ensembles profonds et au régime surparamétriques.

Résumé

Dans les applications critiques pour la sécurité, comme le diagnostic médical ou les voitures autonomes, les chercheurs combinent souvent plusieurs modèles d'IA dans ce que l'on appelle des "ensembles" afin d'améliorer les prédictions - un peu comme si l'on consultait un comité plutôt qu'un seul expert. Cette approche a bien fonctionné pour les modèles simples, mais avec les puissants réseaux neuronaux d'aujourd'hui qui peuvent mémoriser des ensembles de données entiers, les ensembles ne parviennent souvent pas à fournir les avantages escomptés. Nous avons analysé ce phénomène mathématiquement en utilisant des réseaux neuronaux simplifiés. Nous avons découvert que lorsque les modèles sont suffisamment complexes pour mémoriser leurs données d'apprentissage, les ensembles se comportent étroitement comme un seul modèle de plus grande taille. Cela signifie que l'assemblage de grands modèles offre peu d'avantages par rapport à l'entraînement d'un seul modèle plus grand. En outre, nous avons constaté qu'une méthode courante d'estimation de l'incertitude des prédictions d'ensemble - la mesure du désaccord entre les membres de l'ensemble - manque de fondements théoriques dans de tels cas. Nos résultats ne remettent pas en cause l'utilité des ensembles dans la pratique, car les grands modèles peuvent, par exemple, être difficiles à entraîner. Cependant, ils mettent en garde contre le fait de considérer les ensembles comme une stratégie simple et fiable pour améliorer les performances par rapport à ce qu'un seul modèle plus grand pourrait réaliser ou pour évaluer l'incertitude.

Vers une génération rentable de textes guidés par la récompense

Ahmad Rashid, Ruotian Wu, Rongqi Fan, Hongliang Li, Agustinus Kristiadi (chercheur postdoctoral émérite de Vector), Pascal Poupart (membre de la faculté de Vector)

Résumé

La génération de texte guidée par la récompense (RGTG) est apparue comme une alternative viable à l'apprentissage par renforcement hors ligne à partir du retour d'information humain (RLHF). Les méthodes RGTG peuvent aligner les modèles linguistiques de base sur les préférences humaines sans formation supplémentaire comme dans les méthodes RLHF (PPO et DPO). Cependant, elles s'appuient sur un modèle de récompense pour évaluer chaque jeton candidat généré par le modèle de langage lors de l'inférence, ce qui entraîne une surcharge importante. En outre, le modèle de récompense est entraîné pour évaluer uniquement les séquences complètes, ce qui peut conduire à des choix sous-optimaux pour les séquences partielles. Dans ce travail, nous présentons une nouvelle architecture de modèle de récompense qui est entraînée, à l'aide d'une perte Bradley-Terry, à préférer l'expansion optimale d'une séquence avec un seul appel au modèle de récompense. En d'autres termes, un score pour tous les jetons candidats possibles est généré simultanément, ce qui permet une inférence efficace. Nous analysons théoriquement les modèles de récompense RGTG et démontrons que les modèles de récompense de base préfèrent des séquences sous-optimales par rapport à notre méthode pendant l'inférence. Empiriquement, notre modèle de récompense conduit à une inférence significativement plus rapide, comparée aux autres méthodes RGTG, avec moins d'appels au modèle de récompense et une performance compétitive comparée à RGTG et RLHF.

Résumé

Les modèles linguistiques peuvent-ils s'améliorer avec l'aide d'un retour d'information humain sans réentraînement ? Le réentraînement est coûteux, car il nécessite des ressources informatiques et de l'électricité, et contribue aux émissions de carbone. Des travaux antérieurs ont montré qu'il était possible de le faire, mais au prix de temps de réponse plus longs de la part du modèle linguistique, lorsqu'il répond à une requête. Nous présentons une méthode, FaRMA, qui permet de réduire considérablement ce temps de réponse tout en évitant le réentraînement. En outre, nous démontrons des scénarios dans lesquels les méthodes précédentes ne parviennent pas à fournir de bonnes réponses et nous montrons que FaRMA n'est pas vulnérable à ces scénarios.

TypyBench : Evaluation de l'inférence de type LLM pour les dépôts Python non typés

Honghua Dong, Jiacheng Yang, Xun Deng, Yuhe Jiang, Gennady Pekhimenko (membre de la faculté Vector), Fan Long, Xujie Si (membre affilié de la faculté Vector)

Résumé

L'inférence de type pour les langages dynamiques comme Python est un défi persistant dans le domaine du génie logiciel. Alors que les grands modèles de langage (LLM) se sont révélés prometteurs dans la compréhension du code, leurs capacités d'inférence de type restent sous-explorées. Nous présentons `TypyBench`, un benchmark conçu pour évaluer l'inférence de type des LLMs à travers des dépôts entiers de Python. `TypyBench` présente deux nouvelles mesures : `TypeSim`, qui capture les relations sémantiques nuancées entre les types prédits et les types réels, et `TypeCheck`, qui évalue la cohérence des types à travers les bases de code. Notre évaluation de divers LLM sur un ensemble de données de 50 dépôts Python de haute qualité révèle que, bien que les LLM atteignent des scores `TypeSim` décents, ils ont des difficultés avec les types complexes imbriqués et présentent des erreurs de cohérence de type significatives. Ces résultats suggèrent que la recherche future devrait se concentrer non plus sur l'amélioration de la similarité des types mais sur la cohérence au niveau du référentiel. `TypyBench` fournit une base pour cette nouvelle direction, offrant un aperçu de la performance du modèle à travers différentes complexités de types et contextes d'utilisation.

Résumé

Comprendre les types de données spécifiques utilisés dans les langages de programmation flexibles tels que Python peut être un véritable casse-tête pour les développeurs de logiciels. Bien que les puissants modèles d'IA connus sous le nom de LLM soient capables de comprendre le code, nous ne savions pas dans quelle mesure ils pouvaient gérer cette tâche spécifique à grande échelle. Pour le savoir, nous avons créé TypyBench, un nouveau test permettant de déterminer avec quelle précision ces IA peuvent prédire les types de données dans des projets logiciels entiers. Nous avons mis au point deux nouvelles méthodes pour mesurer leurs performances : l'une vérifie si le type prédit est proche du type correct, et l'autre si les prédictions de l'IA sont cohérentes dans l'ensemble du code. Nos tests sur 50 projets Python de haute qualité ont révélé que si les IA devinent assez bien la signification générale des types, elles commettent souvent des erreurs avec les types plus compliqués et créent des incohérences au sein d'un même projet. Cela montre que les efforts futurs devraient se concentrer sur l'amélioration de la cohérence des prédictions de l'IA, et TypyBench est l'outil parfait pour guider cette recherche.

Autoencodeurs universels épars : Alignement de concepts inter-modèles interprétable

Harrish Thasarathan, Julian Forsyth, Thomas Fel, Matthew Kowal, Konstantinos Derpanis (affilié à la faculté Vector)

Résumé

Nous présentons les autoencodeurs universels épars (USAE), un cadre permettant de découvrir et d'aligner des concepts interprétables couvrant plusieurs réseaux neuronaux profonds pré-entraînés. Contrairement aux méthodes d'interprétabilité basées sur les concepts, qui se concentrent sur un seul modèle, les USAEs apprennent conjointement un espace conceptuel universel qui peut reconstruire et interpréter les activations internes de plusieurs modèles à la fois. Notre idée centrale est de former un autoencodeur clair unique et surcomplet (SAE) qui ingère les activations de n'importe quel modèle et les décode pour approximer les activations de n'importe quel autre modèle à l'étude. En optimisant un objectif commun, le dictionnaire appris capture les facteurs communs de variation - concepts - à travers différentes tâches, architectures et ensembles de données. Nous montrons que les USAEs découvrent des concepts universels sémantiquement cohérents et importants à travers les modèles de vision, allant des caractéristiques de bas niveau (par exemple, les couleurs et les textures) aux structures de plus haut niveau (par exemple, les pièces et les objets). Dans l'ensemble, les USAEs fournissent une nouvelle méthode puissante pour l'analyse inter-modèles interprétable et offrent de nouvelles applications - telles que la maximisation de l'activation coordonnée - qui ouvrent la voie à des connaissances plus approfondies dans les systèmes d'intelligence artificielle multi-modèles.

Résumé

Les modèles modernes de vision par ordinateur sont de plus en plus diversifiés, formés à l'aide de différents ensembles de données et d'architectures pour accomplir des tâches visuelles spécifiques telles que l'estimation de la profondeur ou la reconnaissance d'objets. Ces choix de conception déterminent les "concepts" visuels ou les caractéristiques que chaque modèle apprend - de la reconnaissance des bords et des textures à la compréhension des objets et des scènes. Cela soulève une question scientifique fondamentale : ces modèles, malgré leurs différences, convergent-ils vers l'apprentissage des mêmes concepts visuels fondamentaux ? Répondre à cette question est un défi car les représentations internes que ces modèles apprennent sont codées d'une manière que les humains ne peuvent pas interpréter directement. Notre travail introduit les Autoencodeurs Universels Spars (USAE), pour créer un espace conceptuel universel et interprétable qui révèle ce que de multiples modèles de vision apprennent en commun sur le monde visuel. Notre approche nous permet d'identifier les concepts universels les plus importants partagés entre les modèles, tout en découvrant des caractéristiques propres à des modèles spécifiques. Cette analyse permet de comprendre quels choix d'architecture et d'entraînement conduisent à de meilleures représentations visuelles, et quels concepts semblent être des éléments fondamentaux de la compréhension visuelle. Ce travail nous permet de mieux comprendre et de comparer la manière dont différents systèmes d'intelligence artificielle perçoivent et traitent les informations visuelles.

En rapport :

2025
Écosystème de l'IA
Perspectives

L'écosystème de l'IA en Ontario : une croissance économique réelle grâce à un nombre record d'emplois et d'investissements privés

Garçon dans sa chambre faisant ses devoirs sur un ordinateur portable
2025
ANDERS
Santé
Recherche
Recherche 2025

Transformer le soutien à la santé mentale des jeunes : Le modèle de réponse à la crise du FAIIR alimenté par l'IA

Logo vectoriel
2025
Bourse d'études

L'institut Vector attribue jusqu'à 2,1 millions de dollars en bourses d'études aux meilleurs étudiants diplômés en IA de l'Ontario