Les chercheurs de Vector codirigent la première conférence ACM sur la santé, l'inférence et l'apprentissage

20 juillet 2020

ACM CHIL est le fruit du travail de Marzyeh Ghassemi, membre de la faculté Vector.

La première conférence ACM sur la santé, l'inférence et l'apprentissage (CHIL) débutera le jeudi23 juillet 2020. Initialement prévue à Toronto, au Canada, CHIL est désormais un événement virtuel, avec des conférences de Yoshua Bengio (Mila, Université de Montréal), Elaine Nsoesie (Boston University), Sherri Rose (Stanford University - anciennement Harvard Medical School), Ruslan Salakhutdinov (Carnegie Mellon University), et Nigam Shah (Stanford University).

Conçue par Marzyeh Ghassemi (Université de Toronto), membre de la faculté Vector et titulaire de la chaire canadienne CIFAR AI, la conférence s'appuie sur le succès de la ML4H Unconference de l'année dernière et de l'atelier Machine Learning for Health organisé à NeurIPS. Elle s'adresse à un groupe interdisciplinaire d'experts issus de l'industrie et du monde universitaire, y compris des cliniciens et des chercheurs en apprentissage automatique travaillant dans des domaines tels que la politique de santé, la causalité, l'équité, les plates-formes de partage de données cliniques et le déploiement.

"ACM CHIL est unique", déclare M. Ghassemi. "Nous ciblons des approches, des évaluations et des déploiements innovants en matière d'apprentissage automatique, qui sont de plus en plus nécessaires à mesure que l'apprentissage automatique clinique passe d'adaptations standard à des innovations pertinentes pour le domaine."

Outre la présidence générale assurée par M. Ghassemi, Vector est bien représenté au sein de la direction de CHIL. Anna Goldenberg (Hospital for Sick Children, University of Toronto), membre de la faculté et titulaire de la chaire canadienne CIFAR AI, est membre du comité de pilotage, Tasmie Sarker, qui fait partie du personnel professionnel de Vector, est responsable de la logistique de la conférence, et Shalmali Joshi, boursière postdoctorale de Vector, est responsable de la communication. Laura Rossella (Université de Toronto, École de santé publique Dalla Lana) et Avi Goldfarb (Université de Toronto, École de gestion Rotman), membres affiliés du corps professoral de Vector, siègent au comité exécutif.

CHIL propose également des tutoriels sur les ensembles de données de santé publique pour l'apprentissage profond : Challenges and Opportunities, A Tour of Survival Analysis : from Classical to Modern, et Medical Imaging with Deep Learning, ainsi qu'un grand nombre d'actes, d'ateliers et un consortium doctoral. Un certain nombre d'articles et d'exposés d'ateliers ont également été cosignés par des chercheurs de Vector.

Articles sur les vecteurs acceptés à CHIL 2020

Mots blessants : quantification des biais dans l'intégration des mots dans le contexte clinique

Haoran Zhang, Amy X. Lu, Mohamed Abdalla, Matthew McDermott, Marzyeh Ghassemi

Lorsqu'un algorithme d'apprentissage automatique est entraîné sur des données fondamentalement biaisées, il peut en résulter un modèle qui reflète ces biais. Dans les applications cliniques, cela peut entraîner de graves disparités de traitement entre les sous-groupes. Dans ce travail, nous étudions le biais qui existe lorsque des modèles de traitement du langage naturel de pointe sont utilisés sur des notes cliniques pour prédire une variété de tâches cliniquement pertinentes. En évaluant les attributs protégés tels que le sexe, l'origine ethnique et le statut d'assurance, nous constatons qu'il existe de nombreux écarts de performance statistiquement significatifs, le modèle étant souvent plus performant pour le groupe majoritaire. Cela démontre la nécessité d'évaluations rigoureuses des biais des modèles avant leur déploiement en milieu clinique.

MIMIC-Extract : un pipeline d'extraction, de prétraitement et de représentation des données pour MIMIC-III

Shirly Wang, Matthew B. A. McDermott, Geeticka Chauhan, Marzyeh Ghassemi, Michael C. Hughes, Tristan Naumann

MIMIC-Extract introduit plusieurs étapes de nettoyage, de traitement et d'agrégation des données qui rendent la base de données MIMIC-III (un ensemble de données d'unités de soins intensifs couramment utilisé dans la communauté de l'apprentissage automatique) plus accessible aux chercheurs. Ces étapes permettent de relever plusieurs défis liés à l'application de modèles d'apprentissage automatique à des données cliniques, tels qu'un niveau élevé de données manquantes et de bruits dans les données. Nous avons également ouvert notre code pour faciliter la reproductibilité.

Documents de l'atelier sur les vecteurs :

Apprentissage de représentations pour la prédiction de l'état suivant du patient

Taylor Killian, Jayakumar Subramanian, Mehdi Fatemi, Marzyeh Ghassemi

Mon travail, qui sera présenté dans le cadre d'un atelier CHIL, porte sur l'établissement de représentations appropriées des informations recueillies lors de l'observation de la santé des patients au fil du temps. Des travaux antérieurs, portant sur des stratégies de traitement séquentiel pour les soins de santé, n'ont pris en compte que les observations immédiates pour choisir le traitement à administrer. Cela pose problème, car les informations historiques influencent les décisions des médecins humains. En combinant de manière réfléchie les observations de la santé du patient au fil du temps, nous espérons être en mesure de fournir des suggestions de traitement plus appropriées et plus fiables à partir d'aides algorithmiques.

Une évaluation complète de l'apprentissage multitâche de la représentation sur les données des DSE

Matthew McDermott ; Bret Nestor ; Wancong Zhang ; Peter Szolovits ; Anna Goldenberg ; Marzyeh Ghassemi

(Pas de résumé disponible)

En rapport :

Recherche
Une IA digne de confiance

Des experts de renommée mondiale en matière de confiance et de sécurité de l'IA publient un article majeur sur la gestion des risques liés à l'IA dans la revue Science

Des protocoles normalisés sont essentiels pour un déploiement responsable des modèles linguistiques

Les inconnues connues : Geoff Pleiss, chercheur chez Vector, se penche sur l'incertitude pour rendre les modèles de ML plus précis.