Co-dirigée par Richard Zemel, directeur de la recherche sur les vecteurs, la conférence ACM FAccT met l’accent sur l’importance de l’équité, de la responsabilité et de la transparence en IA

26 février 2021

Recherche de blogue2021 2021 IA fiable

26 février 2021

Les chercheurs en vecteurs sont occupés à se préparer pour l’édition 2021 de la conférence ACM sur l’équité, la responsabilité et la transparence (ACM FAccT), qui débute le 3 mars et se poursuit jusqu’au 10 mars. Cette conférence interdisciplinaire réunit des chercheurs et praticiens de premier plan préoccupés par l’équité, la responsabilité et la transparence dans les systèmes sociotechniques. Initialement prévu à Toronto, l’événement de cette année se déroule virtuellement. 

Bien qu’elle n’ait que 4 ans, la FAccT devient rapidement la conférence de premier plan dans ce domaine très important. L’an dernier, plus de 600 chercheurs, décideurs et praticiens ont assisté à la conférence, un nombre qui devrait doubler cette année. 

« Rassembler les experts mondiaux et favoriser un dialogue ouvert sur ce sujet est essentiel pour garantir que des freins et contrepoids soient en place afin que les modèles d’IA ne renforcent pas les biais existants », explique Richard Zemel, directeur de la recherche chez Vector, spécialiste de l’équité en apprentissage automatique et décisions automatisées, et l’un des coprésidents généraux de la conférence. 

Les entreprises et institutions se tournent vers l’IA pour aider à automatiser la prise de décision, allant des pratiques d’embauche au diagnostic médical. Pourtant, en utilisant la technologie pour rendre les processus plus efficaces, ils risquent d’introduire involontairement de nouvelles formes de discrimination dans ces pratiques. « À mesure que l’IA et d’autres technologies s’intègrent de plus en plus dans notre vie quotidienne, il est crucial pour les entreprises et le bien de la société dans son ensemble de veiller à ce que nos modèles n’intègrent pas involontairement des stéréotypes et préjugés latents », dit Zemel.

La conférence comprend des conférenciers principaux et des tutoriels. Elle comprend également des sessions où des chercheurs et praticiens de toutes disciplines académiques et de différentes communautés de pratique, y compris des journalistes, des militants, des artistes et des éducateurs, sont invités à offrir des critiques créatives sur le domaine de l’équité, de la transparence et de la reddition de comptes.

Parmi les travaux présentés lors de la conférence figurent deux communications de chercheurs de Vector.  

Peut-on faire semblant jusqu’à ce qu’on y arrive? : Impacts des données synthétiques différenciellement privées sur l’équité de classification en aval
Victoria Cheng, Vinith M. Suriyakumar, Natalie Dullerud, Shalmali Joshi, Marzyeh Ghassemi
Présentation le mardi 9 mars, de 17 h à 19 h HNE; Séance de questions-réponses en direct à 18 h HNE

L’adoption récente de modèles d’apprentissage automatique dans des contextes à haut risque comme la médecine a accru la demande de développements en matière de vie privée et d’équité. Le rééquilibrage des ensembles de données biaisés à l’aide de données synthétiques a montré un potentiel pour atténuer les impacts disparates sur les sous-groupes minoritaires, mais les modèles génératifs utilisés pour créer ces données sont sujets à des attaques de confidentialité. Les modèles génératifs différenciellement privés sont considérés comme une solution potentielle pour améliorer le déséquilibre de classe tout en préservant la vie privée. Cependant, notre évaluation démontre que les réseaux adversaires génératifs différenciés privés existants ne peuvent pas simultanément maintenir l’utilité, la vie privée et l’équité. Cette friction se traduit directement par une perte de performance et de représentation dans des contextes réels.
Regardez la vidéo >

Courir après vos longues queues : prédiction différemment privée dans les milieux de santé
Vinith M. Suriyakumar, Nicolas Papernot, Anna Goldenberg, Marzyeh Ghassemi
Présentation le mardi 9 mars, de 17 h à 19 h HNE; Séance de questions-réponses en direct à 18 h HNE

Résumé : Les modèles d’apprentissage automatique en soins de santé nécessitent de fortes garanties de confidentialité pour protéger les données des patients. La norme actuelle d’anonymisation échoue souvent en pratique. Dans de tels contextes, l’apprentissage privé différentiel offre une approche polyvalente pour apprendre des modèles avec des garanties de confidentialité. Nous étudions les effets de l’apprentissage privé différencié dans les soins de santé. Nous étudions les compromis entre la confidentialité, la précision, l’équité et les données qui évoluent au fil du temps. Nos résultats mettent en lumière des compromis marqués entre la vie privée et l’utilité, ainsi que des modèles dont les prédictions sont influencées de manière disproportionnée par de grands groupes démographiques dans les données d’entraînement. Nous discutons des coûts et des avantages de l’apprentissage privé différencié en soins de santé.

Regardez la vidéo >

À lire aussi :

Logo vectoriel
2024
Recherche
Recherche 2024
IA fiable

Des experts de confiance et de sécurité en IA de renommée mondiale publient un article majeur sur la gestion des risques liés à l’IA dans la revue Science

Un homme regarde un tableau blanc avec des formules rouges dessus
2024
Réflexions
IA fiable

Comment implémenter en toute sécurité des systèmes d’IA

Portrait de Xi He, membre du corps professoral de Vector.
2024
Réflexions
IA fiable

Comment le chercheur vectoriel Xi utilise la confidentialité différentielle pour aider à garder les données privées