L'apprentissage automatique pour les soins de santé pose de nouveaux défis en matière de reproductibilité

20 janvier 2020

2020 La santé Perspectives Apprentissage automatique Recherche Recherche 2020 L'IA digne de confiance

Photo : Ousa Chea Ousa Chea sur Unsplash

Marzyeh Ghassemi, membre de la faculté Vector, a récemment contribué à la rédaction d'un article Viewpoint pour JAMA online : Les défis de la reproductibilité des modèles d'apprentissage automatique dans les soins de santé. Rédigé par Ghassemi, Andrew L Beam et Arjun Manrai, l'article examine l'intersection entre l'apprentissage automatique et les soins de santé, ainsi que les avantages et les défis de la reproductibilité et de la réplicabilité.

La reproductibilité fait référence à la capacité des chercheurs à obtenir les mêmes résultats que l'étude originale lorsqu'ils ont accès aux données sous-jacentes et au code d'analyse. Cependant, même lorsqu'une étude est reproductible, les auteurs précisent que cela ne signifie pas qu'elle peut être reproduite (lorsque quelqu'un applique les mêmes méthodes à un ensemble différent de données) ou que des généralisations peuvent être faites à partir de ses résultats. 

L'apprentissage automatique contribue à la création de nombreux nouveaux outils de prédiction clinique. Bien qu'ils permettent d'améliorer la qualité des soins pour les patients et de réaliser des économies pour les hôpitaux, ils présentent également des défis uniques et des obstacles à la reproductibilité, ce qui doit être soigneusement pris en compte pour la sécurité des patients lorsque ces techniques commenceront à être déployées dans les hôpitaux.

"La communauté de l'apprentissage automatique s'efforce de produire des résultats robustes", explique M. Ghassemi. L'utilisation de modèles de grande capacité, capables de modéliser de nombreuses relations entre plusieurs variables, peut ajouter de la complexité à la reproductibilité ; il y a souvent des choix techniques faits par défaut, ou dans le cadre d'un processus d'installation, qui pourraient avoir un impact sur le résultat d'une étude. "Un médecin d'un autre endroit pourrait utiliser le même modèle sur ses données et obtenir des résultats très différents.

Le partage des codes et l'accessibilité des données sont deux objectifs importants qui, selon M. Ghassemi, doivent toujours être gardés à l'esprit. "Les risques à long terme liés à la création de résultats invérifiables dans un contexte clinique sont réels, et nous devrions investir dans une culture de la recherche qui permette la vérification intellectuelle." 


En rapport :

Des femmes écrivent sur un tableau blanc. Un homme à sa gauche regarde le tableau.
2025
Recherche
Recherche 2025

Les chercheurs de Vector repoussent les limites de l'IA avec 80 articles présentés à NeurIPS 2025

Logo vectoriel
2025
Perspectives

Une nouvelle étude révèle l'impact économique de 100 milliards de dollars de l'IA au Canada, l'Ontario étant en tête de peloton.

2025
Apprentissage automatique
Recherche
Recherche 2025

Quand l'IA intelligente devient trop intelligente : Principales conclusions de l'atelier 2025 de Vector sur la sécurité et la protection de la vie privée dans le domaine de l'intelligence artificielle