Co-dirigée par Richard Zemel, directeur de recherche de Vector, la conférence ACM FAccT souligne l'importance de l'équité, de la responsabilité et de la transparence dans le domaine de l'IA.

26 février 2021

26 février 2021

Les chercheurs du secteur vectoriel se préparent à l'édition 2021 de la conférence ACM sur l'équité, la responsabilité et la transparence (ACM FAccT), qui débutera le 3 mars et se poursuivra jusqu'au 10 mars. Cette conférence interdisciplinaire rassemble les principaux chercheurs et praticiens qui s'intéressent à l'équité, à la responsabilité et à la transparence dans les systèmes socio-techniques. Initialement prévue à Toronto, la conférence de cette année se déroulera virtuellement. 

Bien qu'elle n'ait que quatre ans d'existence, la FAccT est en passe de devenir la principale conférence dans ce domaine très important. L'année dernière, plus de 600 chercheurs, décideurs politiques et praticiens ont participé à la conférence, un chiffre qui devrait doubler cette année. 

"Réunir les experts du monde entier et favoriser un dialogue ouvert sur ce sujet est essentiel pour garantir la mise en place de contrôles et d'équilibres afin que les modèles d'IA ne renforcent pas les préjugés existants", déclare Richard Zemel, directeur de recherche chez Vector, spécialiste de l'équité dans l'apprentissage automatique et les décisions automatisées, et l'un des coprésidents généraux de la conférence. 

Les entreprises et les institutions se tournent vers l'IA pour automatiser la prise de décision dans tous les domaines, des pratiques d'embauche aux diagnostics médicaux. Cependant, en tirant parti de la technologie pour rendre les processus plus efficaces, elles courent le risque d'introduire par inadvertance de nouvelles formes de discrimination dans ces pratiques. "Alors que l'IA et d'autres technologies s'intègrent de plus en plus dans notre vie quotidienne, il est essentiel pour les entreprises et pour le bien de la société dans son ensemble de veiller à ce que nos modèles n'intègrent pas par inadvertance des stéréotypes et des préjugés latents", déclare M. Zemel.

La conférence comprend des conférenciers et des des tutoriels. Elle comprend également des sessions où les chercheurs et les praticiens de toutes les disciplines universitaires et de différentes communautés de pratique, y compris les journalistes, les activistes, les artistes et les éducateurs, sont invités à proposer des critiques créatives dans le domaine de l'équité, de la transparence et de la responsabilité.

Parmi les travaux présentés lors de la conférence figurent deux articles rédigés par des chercheurs de Vector.  

L'impact des données synthétiques différentiellement privées sur l'équité de la classification en aval
Victoria Cheng, Vinith M. Suriyakumar, Natalie Dullerud, Shalmali Joshi, Marzyeh Ghassemi
Présentation le mardi 9 mars, de 17 h à 19 h (heure de l'Est) ; questions et réponses en direct à 18 h (heure de l'Est)

L'adoption récente de modèles d'apprentissage automatique dans des contextes à haut risque tels que la médecine a accru la demande de développements en matière de protection de la vie privée et d'équité. Le rééquilibrage des ensembles de données biaisés à l'aide de données synthétiques a montré qu'il était possible d'atténuer l'impact disparate sur les sous-groupes minorisés, mais les modèles génératifs utilisés pour créer ces données sont sujets à des attaques contre la vie privée. Les modèles génératifs différentiellement privés sont considérés comme une solution potentielle pour améliorer le déséquilibre des classes tout en préservant la vie privée. Cependant, notre évaluation démontre que les réseaux adverses génératifs différentiellement privés existants ne peuvent pas maintenir simultanément l'utilité, la confidentialité et l'équité. Cette friction se traduit directement par une perte de performance et de représentation dans des situations réelles.
Voir la vidéo >

Chasing Your Long Tails : Prédiction différentiellement privée dans le domaine des soins de santé
Vinith M. Suriyakumar, Nicolas Papernot, Anna Goldenberg, Marzyeh Ghassemi
Présentation le mardi 9 mars, de 17 h à 19 h (heure de l'Est) ; questions et réponses en direct à 18 h (heure de l'Est)

Résumé : Les modèles d'apprentissage automatique dans le domaine des soins de santé nécessitent de solides garanties de confidentialité pour protéger les données des patients. La norme actuelle d'anonymisation échoue souvent dans la pratique. Dans de tels contextes, l'apprentissage différentiellement privé fournit une approche générale pour apprendre des modèles avec des garanties de confidentialité. Nous étudions les effets de l'apprentissage différentiellement privé dans le domaine des soins de santé. Nous étudions les compromis entre la protection de la vie privée, la précision, l'équité et les données qui changent au fil du temps. Nos résultats mettent en évidence des compromis abrupts entre la confidentialité et l'utilité, ainsi que des modèles dont les prédictions sont influencées de manière disproportionnée par de grands groupes démographiques dans les données d'apprentissage. Nous discutons des coûts et des avantages de l'apprentissage différentiellement privé dans le domaine des soins de santé.
Voir la vidéo >

En rapport :

Des protocoles normalisés sont essentiels pour un déploiement responsable des modèles linguistiques

Les inconnues connues : Geoff Pleiss, chercheur chez Vector, se penche sur l'incertitude pour rendre les modèles de ML plus précis.

Un homme regarde un tableau blanc sur lequel sont inscrites des formules en rouge.
Perspectives
Une IA digne de confiance

Comment mettre en œuvre des systèmes d'IA en toute sécurité