Un chercheur en sciences vectorielles développe un modèle d'équité qui tient compte des préférences individuelles

10 août 2020

Photo par Elena Mozhvilo sur Unsplash

10 août 2020

Par Ian Gormely

De la découverte musicale à la finance, nous interagissons avec l'IA tous les jours, souvent sans même le savoir. Pourtant, lorsque l'on envisage d'utiliser des algorithmes pour prendre des décisions au sein de la société, la question de l'équité devient cruciale. 

Les définitions de ce qui est équitable varient, mais les préoccupations se résument souvent à une question de partialité : les données sur lesquelles les algorithmes sont formés sont-elles représentatives de la population qu'elles servent ? "Les algorithmes d'apprentissage automatique sont fondamentalement basés sur des données", explique Safwan Hossain, chercheur chez Vector et supervisé par Nisarg Shah, membre affilié du corps professoral de Vector. "S'il y a un biais dans les données, ce biais peut très bien se répercuter sur le modèle. 

De nombreux algorithmes d'apprentissage automatique sont construits sur une base binaire oui/non. Dans le cas de prêts bancaires, par exemple, un modèle déciderait si une personne doit ou non se voir accorder un prêt ; un modèle ne devrait pas favoriser injustement un groupe par rapport à un autre.

Mais l'équité peut aussi être dans l'œil de celui qui regarde. M. Hossain note que les gens ont tendance à apprécier les biens différemment les uns des autres. Pourtant, la plupart des modèles ne tiennent pas compte des préférences individuelles ou de paramètres plus complexes et non binaires, ce qui est abordé dans le nouvel article "Conception de classificateurs équitables à l'aide de notions d'équité économiqueco-écrit par Hossain, Andjela Mladenovic et Nisarg Shah, membre affilié de la faculté Vector. Quelqu'un peut se voir accorder un prêt, mais recevoir le mauvais prêt - par exemple un prêt hypothécaire à taux variable sur cinq ans alors qu'elle souhaitait un prêt à taux fixe sur dix ans - peut être aussi injuste que de ne pas en obtenir du tout.

Pour construire son modèle, M. Hossain, qui travaille à l'intersection de l'économie et de l'informatique, s'est inspiré de deux définitions économiques bien étudiées de l'équité - l'absence d'envie et l'équitabilité, qui comparent les différences entre les valeurs attribuées à différents objets ou idées - et les a adaptées à un cadre d'apprentissage automatique. 

Ce faisant, ils ont pu construire un modèle d'équité généralisable qui englobe un certain nombre de concepts d'équité existants. Cela leur permettra Cela leur permettra de le déployer dans de nouveaux contextes, tels que la publicité ciblée ou les soins de fin de vie, avec de nouvelles données. M. Hossain travaille déjà sur un document de suivi qui applique les travaux au secteur de la santé, où les questions de préférences individuelles deviennent encore plus importantes pour les soins personnalisés. "Les gens savent ce qu'ils veulent", dit-il, "et ils ont tendance à croire que quelque chose est juste s'ils en sont satisfaits".

En rapport :

Des protocoles normalisés sont essentiels pour un déploiement responsable des modèles linguistiques

Les inconnues connues : Geoff Pleiss, chercheur chez Vector, se penche sur l'incertitude pour rendre les modèles de ML plus précis.

Un homme regarde un tableau blanc sur lequel sont inscrites des formules en rouge.
Perspectives
Une IA digne de confiance

Comment mettre en œuvre des systèmes d'IA en toute sécurité