Les chercheurs Vector aident les institutions à assurer la confidentialité et la confidentialité lors du partage de modèles d’apprentissage automatique

19 octobre 2021

2021 Insights Recherche en apprentissage automatique 2021

Par Ian Gormely
19 octobre 2021

Le personnel et les chercheurs du Vector Institute contribuent à faciliter une plus grande collaboration entre banques ou hôpitaux grâce à un nouveau système qui permet aux institutions de collaborer avec des modèles d’apprentissage automatique (ML) tout en offrant des garanties de confidentialité et de confidentialité. Appelée apprentissage collaboratif confidentiel et privé ou CaPC, cette méthode fait partie de plusieurs technologies d’amélioration de la vie privée (PET) présentées aux partenaires de l’industrie, de la santé et du gouvernement par les chercheurs de Vector et l’équipe d’ingénierie IA. 

CaPC permet aux organisations de collaborer sans se révéler les entrées, modèles ou données d’entraînement. Il existe des systèmes existants pour partager des modèles d’apprentissage automatique entre organisations, dont certains promettent la confidentialité ou la confidentialité. Mais le chercheur de Vector Adam Dziedzic, qui a co-créé le système, affirme que le leur est « le seul à faire les deux ». 

Détaillé dans l’article « CaPC Learning : Confidential and Private Collaborative Learning » de Dziedzic, les chercheurs de Vector Christopher A. Choquette-Choo, Natalie Dullerud et le professeur Nicolas Papernot ainsi que leurs collègues Yunxiang Zhang, Somesh Jha et Xiao Wang, le système combine des outils issus de la cryptographie et de la recherche en vie privée. Il permet la collaboration entre les participants sans avoir à rejoindre explicitement leurs ensembles d’entraînement ou à entraîner un modèle central. De cette façon, l’exactitude et l’équité d’un modèle peuvent être améliorées tout en protégeant la confidentialité des données et la vie privée de la personne à qui elles appartiennent. Le CaPC a été conçu spécifiquement en pensant aux hôpitaux et aux banques, puisque les secteurs de la santé et de la finance exigent généralement des réglementations strictes sur la vie privée et la confidentialité, mais il pourrait être étendu à d’autres secteurs. À l’heure actuelle, le modèle demeure une preuve de concept. « Nous voulions montrer que c’est possible », dit Dziedzic. « Maintenant, on travaille à étendre sa capacité à appliquer ça dans le monde réel. »

Pour faciliter cette transition, le CaPC fera partie de la boîte à outils de l’industrie mise à disposition lors du prochain PETs Bootcamp de Vector , accompagné d’une gamme plus large d’implémentations et de démonstrations. Parallèlement au CaPC, le bootcamp de trois jours comprendra des démonstrations d’apprentissage fédéré, de confidentialité différentielle et de chiffrement homomorphe, dans le but d’aider les partenaires de l’industrie, de la santé et des services publics à explorer et construire des prototypes PET de base pour un éventuel déploiement dans leurs organisations. « Nous essayons de combler le fossé entre la recherche de pointe et les applications industrielles en facilitant la mise en œuvre de ces techniques de pointe pour améliorer la vie privée », explique Deval Pandya, directeur de l’ingénierie IA chez Vector.

« Un événement comme celui-ci nous permet non seulement de présenter notre système », explique Dziedzic, qui présentera la démonstration de son équipe, « il nous permet aussi de recevoir des commentaires sur les besoins spécifiques de l’industrie. Ce type de collaboration nous aide à améliorer le système et, espérons-le, à le voir en pratique. »

Apprenez-en plus sur l’apprentissage collaboratif confidentiel et privé ici.

 

Apprenez-en plus sur le travail de Vector avec l’industrie ici.

À lire aussi :

2026
Réflexions
Recherche
Recherche 2026

La nouvelle cartographie de l’invisible

Logo vectoriel
2025
Réflexions

Une nouvelle étude révèle l’impact économique de 100 milliards de dollars de l’IA à travers le Canada, avec l’Ontario en tête

2025
Apprentissage automatique
Recherche
Recherche 2025

Quand l’IA intelligente devient trop intelligente : Principaux enseignements de l’atelier 2025 sur la sécurité et la vie privée en apprentissage automatique de Vector