Un chercheur en sciences vectorielles développe un modèle d'équité qui tient compte des préférences individuelles

10 août 2020

2020 Blog Recherche Recherche 2020 Une IA digne de confiance

Photo par Elena Mozhvilo sur Unsplash

10 août 2020

Par Ian Gormely

De la découverte musicale à la finance, nous interagissons avec l'IA tous les jours, souvent sans même le savoir. Pourtant, lorsque l'on envisage d'utiliser des algorithmes pour prendre des décisions au sein de la société, la question de l'équité devient cruciale. 

Les définitions de ce qui est équitable varient, mais les préoccupations se résument souvent à une question de partialité : les données sur lesquelles les algorithmes sont formés sont-elles représentatives de la population qu'elles servent ? "Les algorithmes d'apprentissage automatique sont fondamentalement basés sur des données", explique Safwan Hossain, chercheur chez Vector et supervisé par Nisarg Shah, membre affilié de la faculté Vector. "S'il y a un biais dans les données, ce biais peut très bien se répercuter sur le modèle. 

De nombreux algorithmes d'apprentissage automatique sont construits sur une base binaire oui/non. Dans le cas de prêts bancaires, par exemple, un modèle déciderait si une personne doit ou non se voir accorder un prêt ; un modèle ne devrait pas favoriser injustement un groupe par rapport à un autre.

Mais l'équité peut aussi être dans l'œil de celui qui regarde. M. Hossain note que les gens ont tendance à apprécier les biens différemment les uns des autres. Pourtant, la plupart des modèles ne tiennent pas compte des préférences individuelles ou de paramètres plus complexes et non binaires, ce qui est abordé dans le nouvel article "Conception de classificateurs équitables à l'aide de notions d'équité économiqueco-écrit par Hossain, Andjela Mladenovic et Nisarg Shah, membre affilié de la faculté Vector. Quelqu'un peut se voir accorder un prêt, mais recevoir le mauvais prêt - par exemple un prêt hypothécaire à taux variable sur cinq ans alors qu'elle souhaitait un prêt à taux fixe sur dix ans - peut être aussi injuste que de ne pas en obtenir du tout.

Pour construire son modèle, M. Hossain, qui travaille à l'intersection de l'économie et de l'informatique, s'est inspiré de deux définitions économiques bien étudiées de l'équité - l'absence d'envie et l'équitabilité, qui comparent les différences entre les valeurs attribuées à différents objets ou idées - et les a adaptées à un cadre d'apprentissage automatique. 

Ce faisant, ils ont pu construire un modèle d'équité généralisable qui englobe un certain nombre de concepts d'équité existants. Cela leur permettra Cela leur permettra de le déployer dans de nouveaux contextes, tels que la publicité ciblée ou les soins de fin de vie, avec de nouvelles données. M. Hossain travaille déjà sur un document de suivi qui applique les travaux au secteur de la santé, où les questions de préférences individuelles deviennent encore plus importantes pour les soins personnalisés. "Les gens savent ce qu'ils veulent", dit-il, "et ils ont tendance à croire que quelque chose est juste s'ils en sont satisfaits".

En rapport :

2025
Ingénierie de l'IA
Recherche
Recherche 2025

Étude sur l'état de l'évaluation : L'Institut Vecteur apporte une nouvelle transparence dans l'évaluation comparative des modèles mondiaux d'IA

Sriram Ganapathi Subramanian headshot blog cover
2025
Recherche
Recherche 2025

Apprentissage par renforcement multi-agents dans le monde réel - Derniers développements et applications

2025
Ingénierie de l'IA
Actualités
Recherche
Recherche 2025

Les principes en action : Présentation du guide de l'Institut Vecteur pour un développement responsable des produits d'IA