Les chercheurs de Vector aident les institutions à garantir la protection de la vie privée et la confidentialité lors du partage des modèles de ML

19 octobre 2021

2021 Perspectives Apprentissage automatique Recherche 2021

Par Ian Gormely
19 octobre 2021

Le personnel et les chercheurs de l'Institut Vector contribuent à faciliter la collaboration entre les banques et les hôpitaux grâce à un nouveau système qui permet aux institutions de travailler conjointement avec des modèles d'apprentissage automatique tout en offrant des garanties de confidentialité et de respect de la vie privée. Baptisée Confidential and Private Collaborative Learning (CaPC), cette méthode est l'une des nombreuses technologies d'amélioration de la confidentialité (PET) que les chercheurs de l'Institut Vector et l'équipe AI Engineering présentent à leurs partenaires des secteurs de l'industrie, de la santé et de l'administration. 

Le CaPC permet aux organisations de collaborer sans se révéler mutuellement les données d'entrée, les modèles ou les données d'entraînement. Il existe des systèmes de partage de modèles de ML entre organisations, dont certains promettent le respect de la vie privée ou la confidentialité. Mais Adam Dziedzic, chercheur chez Vector et co-créateur du système, affirme que le sien est "le seul à faire les deux". 

Détaillé dans l'article "Apprentissage CaPC : Apprentissage collaboratif confidentiel et privé" de Dziedzic, Christopher A. Choquette-Choo, Natalie Dullerud et Nicolas Papernot, membre de la faculté, ainsi que leurs collègues Yunxiang Zhang, Somesh Jha et Xiao Wang, le système combine des outils issus de la cryptographie et de la recherche sur la protection de la vie privée. Il permet la collaboration entre les participants sans qu'ils aient à joindre explicitement leurs ensembles de formation ou à former un modèle central. Il est ainsi possible d'améliorer la précision et l'équité d'un modèle tout en protégeant la confidentialité des données et la vie privée de la personne à qui elles appartiennent. CaPC a été spécifiquement conçu pour les hôpitaux et les banques, car les secteurs de la santé et de la finance ont tendance à exiger des réglementations strictes en matière de protection de la vie privée et de la confidentialité, mais il pourrait être étendu à d'autres secteurs d'activité. Pour l'instant, le modèle reste une preuve de concept. "Nous voulions montrer que c'était possible", explique M. Dziedzic. "Nous nous efforçons maintenant d'étendre sa capacité afin de pouvoir l'appliquer dans le monde réel.

Pour faciliter cette transition, le CaPC fera partie de la boîte à outils de l'industrie qui sera mise à disposition lors de la prochaine édition du PETs Bootcamp de Vector, ainsi qu'un ensemble plus large d'implémentations et de démonstrations. Outre le CaPC, le bootcamp de trois jours proposera des démonstrations de L'objectif est d'aider les partenaires de l'industrie, de la santé et des services publics à explorer et à construire des prototypes de base de TEP en vue d'un déploiement potentiel dans leurs organisations. "Nous essayons de combler le fossé entre la recherche de pointe et les applications industrielles en facilitant la mise en œuvre de ces techniques de pointe d'amélioration de la confidentialité", déclare Deval Pandya, directeur de l'ingénierie de l'IA chez Vector.

"Un événement comme celui-ci nous permet non seulement de présenter notre système", explique M. Dziedzic, qui présentera la démonstration de son équipe, "mais aussi de recevoir un retour d'information sur les besoins spécifiques de l'industrie. Ce type de collaboration nous aide à améliorer le système et, espérons-le, à le mettre en pratique".

Pour en savoir plus sur l'apprentissage collaboratif confidentiel et privé , cliquez ici

Pour en savoir plus sur le travail de Vector avec l'industrie , cliquez ici

En rapport :

Vector Membre de la faculté Gautam Kamath
2024
Perspectives
Recherche
Recherche 2024

Gautam Kamath, chercheur spécialisé dans les vecteurs, analyse les derniers développements en matière de robustesse et de protection de la vie privée.

2024
Perspectives
Grands modèles linguistiques

Des protocoles normalisés sont essentiels pour un déploiement responsable des modèles linguistiques

2024
Apprentissage automatique
Recherche
Recherche 2024

Les inconnues connues : Geoff Pleiss, chercheur chez Vector, se penche sur l'incertitude pour rendre les modèles de ML plus précis.