Un chercheur en vecteurs développe un modèle d’équité qui tient compte des préférences individuelles

10 août 2020

Recherche de blog2020 Recherche 2020 IA fiable

Photo d’Elena Mozhvilo sur Unsplash

10 août 2020

Par Ian Gormely

De la découverte musicale à la finance, nous interagissons avec l’IA tous les jours, souvent sans même le savoir. Pourtant, à mesure que les algorithmes sont pris en compte pour la prise de décision sociétale, les questions d’équité deviennent un enjeu crucial. 

Les définitions de ce qui est juste varient, mais les préoccupations se résument souvent à une question de biais : les algorithmes de données sont-ils entraînés sur la base représentative de la population qu’ils desservent? « Les algorithmes d’apprentissage automatique sont fondamentalement basés sur les données », explique Safwan Hossain, chercheuse chez Vector, supervisée par Nisarg Shah, affiliée à la faculté de Vector. « S’il y a un biais dans les données, ce biais pourrait très bien se propager au biais dans le modèle. » 

Beaucoup d’algorithmes d’apprentissage automatique reposent sur un binaire oui/non. Dans le cas de prêts bancaires, un modèle déciderait si quelqu’un doit obtenir un prêt ou non; Un modèle ne devrait pas favoriser injustement un groupe par rapport à un autre.

Mais l’équité peut aussi dépendre de celui qui regarde. Hossain note que les gens ont tendance à valoriser les biens différemment les uns des autres. Pourtant, la plupart des modèles ne tiennent pas compte des préférences individuelles ou des contextes plus complexes et non binaires, ce qui est abordé dans le nouvel article « Designing Fairly Fair Classifiers Via Economic Fairness Notions », coécrit par Hossain, Andjela Mladenovic et Nisarg Shah, affiliée au Vector Faculty. Quelqu’un pourrait se voir accorder un prêt, mais obtenir le mauvais prêt — par exemple un prêt hypothécaire à taux variable de cinq ans alors qu’il voulait un prêt à taux fixe sur 10 ans — peut être aussi injuste que de ne pas en obtenir un du tout.

En construisant leur modèle, Hossain, qui travaille à l’intersection de l’économie et de l’informatique, a adapté deux définitions économiques bien étudiées de l’équité — la liberté d’envie et l’équité, qui comparent les différences entre la façon dont différentes personnes valorisent différents éléments ou idées — et les a adaptées à un contexte d’apprentissage automatique. 

Ce faisant, ils ont pu construire un modèle d’équité généralisable qui englobe plusieurs concepts existants d’équité. Cela leur permettra de le déployer dans de nouveaux contextes, comme la publicité ciblée ou les soins en fin de vie, avec de nouvelles données. Hossain travaille déjà sur un article de suivi qui applique ce travail au secteur de la santé, où les questions de préférence individuelle deviennent encore plus importantes pour les soins personnalisés. « Les gens savent ce qu’ils veulent », dit-il, « et les gens ont tendance à croire que quelque chose est juste s’ils en sont satisfaits. »

À lire aussi :

2026
Réflexions
Recherche
Recherche 2026

La nouvelle cartographie de l’invisible

Les femmes écrivent sur un tableau blanc. Il y a un homme à sa gauche qui regarde le tableau.
2025
Recherche
Recherche 2025

Les chercheurs en vecteurs font avancer les frontières de l’IA avec 80 articles au NeurIPS 2025

2025
Apprentissage automatique
Recherche
Recherche 2025

Quand l’IA intelligente devient trop intelligente : Principaux enseignements de l’atelier 2025 sur la sécurité et la vie privée en apprentissage automatique de Vector