Projecteur sur la santé à NeurIPS 2021
1er décembre 2021
1er décembre 2021
1er déc. 2021
Par Ian Gormely
Utiliser l’IA pour améliorer la santé tout au long de la vie est l’un des quatre piliers du Plan stratégique triennal de Vector.
Un article notable des membres du corps professoral de Vector, Quaid Morris et Marzyeh Ghassemi, présente une méthode de création de listes de vérification prédictives, des aides à la décision courantes en milieu clinique, à partir de données plutôt que d’utiliser l’expertise du domaine. La méthode proposée dans « Learning Optimal Predictive Checklists », coécrite avec Haoran Zhang et Berk Ustun, peut créer des listes de vérification en heures au lieu de mois et offre une métrique concrète pour évaluer ces listes.
Vous trouverez ci-dessous des résumés et des résumés simplifiés de nombreux articles et ateliers acceptés par les membres du corps professoral de Vector.
Lisez-en plus sur le travail des chercheurs en Vector lors de la conférence NeurIPS de cette année ici.
Communications de conférences liées à la santé par des membres du corps professoral et affiliés de Vector :
Timo Milbich, Karsten Roth, Samarth Sinha, Ludwig Schmidt, Marzyeh Ghassemi, Björn Ommer
L’apprentissage métrique profond (DML) vise à apprendre les espaces de représentation dans lesquels une métrique prédéfinie (par exemple, la distance euclidienne) est liée à la similarité sémantique des données d’entrée d’une manière qui permet de regrouper des échantillons issus de classes invisibles en fonction de la similarité inhérente, même en sémantique
Des quarts hors distribution. Cependant, les benchmarks standards utilisés pour évaluer les capacités de généralisation de différentes méthodes DML utilisent des divisions fixes entre trains et tests et donc des décalages fixes de train à test. Mais en pratique, le décalage au moment du test n’est pas connu a priori et, par conséquent, le réglage d’évaluation par défaut est insuffisant pour évaluer l’utilisabilité pratique des différentes méthodes DML. Pour y remédier, nous proposons un protocole novateur pour générer des séquences de décalages sémantiques de plus en plus difficiles pour des divisions train-test données afin d’évaluer la performance de généralisation des méthodes DML dans des scénarios plus réalistes avec différents décalages train-à-test. Par la suite, nous fournissons une évaluation approfondie des approches conceptuelles de la DML et de leurs avantages ou lacunes à travers les changements d’entraînement à test de difficulté variable, étudions les liens avec des métriques structurelles comme indicateurs potentiels de la performance de généralisation en aval, ainsi que nous introduisons la DML à quelques coups comme remède peu coûteux pour une généralisation systématiquement améliorée lors de changements d’OOD plus sévères.
Écoulements latents continus du processus
Ruizhi Deng, Marcus A. Brubaker, Greg Mori, Andreas M. Lehrmann
Des observations partielles de la dynamique continue des séries temporelles à des horodatages arbitraires existent dans de nombreuses disciplines. L’ajustement de ce type de données à l’aide de modèles statistiques à dynamique continue est non seulement prometteur à un niveau intuitif, mais présente aussi des avantages pratiques, notamment la capacité de générer des trajectoires continues et d’effectuer des inférences sur des horodatages jamais vus auparavant. Malgré des progrès enthousiasmants dans ce domaine, les modèles existants font toujours face à des défis en termes de puissance de représentation et de qualité de leurs approximations variationnelles. Nous abordons ces défis avec des flux de processus latents continus (CLPF), une architecture de principe décodant des processus latents continus en processus observables continus à l’aide d’un flux de normalisation dépendant du temps, piloté par une équation différentielle stochastique. Pour optimiser notre modèle en utilisant la vraisemblance maximale, nous proposons une nouvelle construction par morceaux d’un processus postérieur variationnel et dérivons la borne inférieure variationnelle correspondante en utilisant la repondération des trajectoires. Nos études d’ablation démontrent l’efficacité de nos contributions dans diverses tâches d’inférence sur des grilles temporelles irrégulières. Les comparaisons avec des bases de référence à la fine pointe de la technologie montrent la performance favorable de notre modèle tant sur les données synthétiques que sur les séries temporelles réelles.
Jixuan Wang, Kuan-Chieh Wang, Frank Rudzicz, Michael Brudno
Pré-entraîner des modèles de langage basés sur des Transformers sur du texte non étiqueté, puis leur ajustement fin sur des tâches ciblées, a obtenu un succès remarquable sur diverses tâches de NLP. Cependant, l’étape d’ajustement fin nécessite encore une grande quantité de données étiquetées pour obtenir de bonnes performances. Dans ce travail, nous proposons une approche de méta-apprentissage pour la classification de texte en quelques shots, où seulement quelques exemples sont donnés pour chaque cours. Pendant l’entraînement, notre modèle apprend des connaissances préalables utiles à partir d’un ensemble de tâches diverses mais connexes. Lors des tests, notre modèle utilise les connaissances acquises pour mieux résoudre diverses tâches en aval dans différents domaines. Nous utilisons des dégradés comme caractéristiques pour représenter la tâche. Comparativement à l’ajustement fin et à d’autres approches de méta-apprentissage, nous démontrons de meilleures performances sur un ensemble diversifié de tâches de classification de texte. Notre travail est une exploration inaugurale de l’utilisation de représentations de tâches basées sur des gradients pour le méta-apprentissage. »
Apprendre des listes de vérification prédictives optimales
Haoran Zhang, Quaid Morris, Berk Ustun, Maryzeh Ghassemi
Les listes de vérification sont des aides à la décision couramment utilisées en milieu clinique. Une des raisons pour lesquelles les listes de vérification sont si efficaces est leur forme simple – elles peuvent être remplies en quelques minutes, elles ne nécessitent aucun matériel spécialisé pour être déployées (seulement une feuille imprimée), et elles sont facilement vérifiables, contrairement à d’autres modèles d’apprentissage automatique en boîte noire. Cependant, la grande majorité des listes de vérification actuelles sont créées par des panels d’experts utilisant une expertise dans le domaine. Dans ce travail, nous proposons une méthode pour créer des listes de contrôle prédictives à partir de *données*. Créer des listes de vérification à partir des données nous permet d’avoir un critère d’évaluation mesurable (c’est-à-dire qu’il existe une métrique concrète que nous pouvons utiliser pour évaluer les listes de vérification). Cela permet aussi un développement rapide du modèle – nous pouvons établir des listes de vérification en quelques heures, au lieu d’attendre des mois pour le panel d’experts. Notre méthode formule la création de liste de vérification comme un programme entier qui minimise directement le taux d’erreur de la liste. De manière cruciale, notre méthode permet aussi d’inclure des contraintes personnalisables (par exemple, sur le formulaire de la liste de vérification, la performance ou l’équité), ainsi que de donner des indications sur les moments où une liste de vérification n’est pas un modèle approprié pour la tâche particulière. Nous constatons que notre méthode surpasse les méthodes de référence existantes, et présentons deux études de cas pour démontrer l’utilité pratique de notre méthode où 1) nous entraînons une liste de vérification pour prédire la mortalité chez les patients en soins intensifs avec des contraintes d’équité de groupe, et 2) nous apprenons une version courte de la liste de vérification du TSPT pour le DSM-5, plus rapide à compléter tout en maintenant la précision.
Impasses médicales et apprentissage de l’identification des états et traitements à haut risque
Mehdi Fatemi (Microsoft Research), Taylor W. Killian (Université de Toronto / Vector Institute), Jayakumar Subramanian (Adobe Research – Inde), Marzyeh Ghassemi (Massachusetts Institute of Technology)
Les interactions patient-clinicien sont intrinsèquement des processus séquentiels où les décisions de traitement sont prises et adaptées selon la compréhension par un expert de l’évolution de la santé du patient. Bien que le RL ait démontré être un outil puissant pour apprendre des stratégies décisionnelles optimales – apprendre quoi faire – les garanties pour trouver ces solutions dépendent de la capacité à expérimenter des stratégies possibles pour collecter plus de données. Ce type d’exploration n’est pas possible dans un contexte de soins de santé, ce qui rend impossible l’apprentissage de stratégies optimales. Dans ce travail, nous proposons d’inverser le paradigme RL dans des contextes limités par les données et critiques pour la sécurité afin d’étudier les traitements à haut risque ainsi que les états de santé des patients. Nous entraînons l’algorithme à identifier des traitements afin d’éviter de choisir afin d’éviter au patient des résultats de santé irrémédiablement négatifs, définis comme une impasse médicale. Nous appliquons cette approche (Découverte sans issue — DeD) à une tâche clinique réelle utilisant le jeu de données MIMIC-III, traitant des patients gravement malades ayant développé une septicémie. Nous établissons l’existence des impasses et démontrons l’utilité de la DeD, en soulevant des avertissements qui indiquent lorsqu’un patient ou un traitement comporte un risque élevé ou extrême de rencontrer une impasse et donc de mourir.
Ateliers liés à la santé animés par des membres du corps professoral de Vector :
Katy Haynes, Ziad Obermeyer, Emma Pierson, Marzyeh Ghassemi, Matthew Lungren, Sendhil Mullainathan, Matthew McDermott
Cet atelier lancera une nouvelle plateforme pour les ensembles de données ouverts d’imagerie médicale. Accompagnées de résultats fondés sur le terrain, sélectionnés autour d’un ensemble de problèmes médicaux non résolus, ces données approfondiront les façons dont l’apprentissage apprentissage automatique peut contribuer à la santé et soulèveront un nouvel ensemble de défis techniques.