Un chercheur en vecteurs développe un modèle d’équité qui tient compte des préférences individuelles
10 août 2020
10 août 2020
Photo d’Elena Mozhvilo sur Unsplash
10 août 2020
Par Ian Gormely
De la découverte musicale à la finance, nous interagissons avec l’IA tous les jours, souvent sans même le savoir. Pourtant, à mesure que les algorithmes sont pris en compte pour la prise de décision sociétale, les questions d’équité deviennent un enjeu crucial.
Les définitions de ce qui est juste varient, mais les préoccupations se résument souvent à une question de biais : les algorithmes de données sont-ils entraînés sur la base représentative de la population qu’ils desservent? « Les algorithmes d’apprentissage automatique sont fondamentalement basés sur les données », explique Safwan Hossain, chercheuse chez Vector, supervisée par Nisarg Shah, affiliée à la faculté de Vector. « S’il y a un biais dans les données, ce biais pourrait très bien se propager au biais dans le modèle. »
Beaucoup d’algorithmes d’apprentissage automatique reposent sur un binaire oui/non. Dans le cas de prêts bancaires, un modèle déciderait si quelqu’un doit obtenir un prêt ou non; Un modèle ne devrait pas favoriser injustement un groupe par rapport à un autre.
Mais l’équité peut aussi dépendre de celui qui regarde. Hossain note que les gens ont tendance à valoriser les biens différemment les uns des autres. Pourtant, la plupart des modèles ne tiennent pas compte des préférences individuelles ou des contextes plus complexes et non binaires, ce qui est abordé dans le nouvel article « Designing Fairly Fair Classifiers Via Economic Fairness Notions », coécrit par Hossain, Andjela Mladenovic et Nisarg Shah, affiliée au Vector Faculty. Quelqu’un pourrait se voir accorder un prêt, mais obtenir le mauvais prêt — par exemple un prêt hypothécaire à taux variable de cinq ans alors qu’il voulait un prêt à taux fixe sur 10 ans — peut être aussi injuste que de ne pas en obtenir un du tout.
En construisant leur modèle, Hossain, qui travaille à l’intersection de l’économie et de l’informatique, a adapté deux définitions économiques bien étudiées de l’équité — la liberté d’envie et l’équité, qui comparent les différences entre la façon dont différentes personnes valorisent différents éléments ou idées — et les a adaptées à un contexte d’apprentissage automatique.
Ce faisant, ils ont pu construire un modèle d’équité généralisable qui englobe plusieurs concepts existants d’équité. Cela leur permettra de le déployer dans de nouveaux contextes, comme la publicité ciblée ou les soins en fin de vie, avec de nouvelles données. Hossain travaille déjà sur un article de suivi qui applique ce travail au secteur de la santé, où les questions de préférence individuelle deviennent encore plus importantes pour les soins personnalisés. « Les gens savent ce qu’ils veulent », dit-il, « et les gens ont tendance à croire que quelque chose est juste s’ils en sont satisfaits. »