Biais dans les programmes d’IA : montrer aux entreprises comment réduire les biais et atténuer les risques
7 septembre 2022
7 septembre 2022
Par Jonathan Woods
7 sept. 2022
Comprendre et atténuer les biais est un enjeu essentiel dans l’application des systèmes d’IA, particulièrement pour les entreprises. C’est aussi un sujet complexe. Cela exige non seulement une maîtrise des techniques techniques de correction des biais, mais aussi une connaissance des pratiques de gouvernance spécifiques à l’IA et une réflexion réfléchie sur ce que signifie l’équité dans un contexte donné. Si les biais n’y sont pas corrigés, les biais dans les systèmes d’IA peuvent renforcer la discrimination historique intégrée dans les ensembles de données, nuire injustement aux utilisateurs et nuire à la réputation d’une organisation — autant de résultats inacceptables.
Pour aider les petites et moyennes entreprises canadiennes à relever ce défi, l’Institut Vector, avec le soutien financier du Programme d’aide à la recherche industrielle du Conseil national de recherches du Canada (RAPR), a créé Bias in AI, un programme en ligne indépendant de l’industrie conçu pour aider les professionnels d’affaires à développer les outils et compétences nécessaires pour identifier et réduire les biais dans les applications de traitement du langage naturel (PNL) et de vision par ordinateur (CV).
Dix-huit participants issus de six entreprises ont participé au programme Bias in AI pendant cinq semaines, entre février et avril 2022. Le programme interactif comprenait des ateliers et tutoriels animés par des experts de la communauté Vector, ainsi que des travaux auxquels les participants :
Enfin, chaque entreprise a appliqué ses apprentissages à sa propre entreprise dans un projet final qui a été présenté pour évaluation à la fin du programme.
Le programme est adapté aux équipes de science des données au sein des petites et moyennes entreprises, car ce groupe, tout en utilisant de plus en plus l’IA, peut avoir du mal à suivre la recherche et les meilleures pratiques pour atténuer les biais. Melissa Valdez, la gestionnaire du cours, a déclaré : « Nous savons que les startups, les scaleups et les petites et moyennes entreprises n’ont pas nécessairement les ressources nécessaires pour se concentrer là-dessus au niveau dont elles ont besoin. »
Dan Adamson, PDG d’Armilla — une entreprise qui a rejoint la cohorte Biais en IA de l’hiver 2022 — apprécie que le programme explore la complexité du problème. « Nous pensons qu’il est vraiment important que chaque scientifique des données ait cette formation sous-jacente comme base, car le sujet est beaucoup plus complexe que ce qu’ils ont probablement appris en sortis de leur cours d’informatique ou de leur cours principal de science des données », a déclaré Adamson.
Adamson a souligné l’inclusion d’éléments non techniques essentiels à la gestion des biais comme une force clé du programme. « Je pense que le parcours avait plusieurs dimensions pour éliminer les biais, ce qui est vraiment important parce que ce n’est pas seulement un problème technique », a-t-il dit. « Il doit y avoir un aspect de gouvernance, et vous devez aussi être capable de comprendre les principes commerciaux et éthiques qui la sous-tendent. Le cours a très bien fait un excellent travail en détaillant chacun de ces points de façon intégrée. »
Armilla aide les data scientists à assurer la qualité des modèles d’apprentissage automatique (ce qui inclut la recherche de biais) via leur plateforme et offre des services d’audit pour maintenir la confiance dans ces modèles. Au cours de ce cours, l’équipe Armilla a travaillé sur un projet axé sur les données et systèmes des ressources humaines – un sujet dont l’entreprise reçoit de nombreuses questions – ainsi qu’une question sur ce qu’ils pouvaient détecter sur la répartition équitable des promotions entre hommes et femmes dans un seul ensemble de données. Les résultats « ont soulevé à la fois des questions éthiques et techniques » concernant l’équité dans les systèmes d’embauche et de promotion, a indiqué Adamson, ce qui nécessitait des expérimentations avec des techniques de correction, y compris la rééducation des modèles.
« C’était une étude de cas intéressante », a déclaré Adamson. « Nous voulions nous assurer que nos data scientists restaient à jour avec l’état de la technologie, et nous avons utilisé [le projet] comme un exercice pour que notre équipe soit sur la même longueur d’onde. »
EthicalAI, une société de consultation en IA qui aide les entreprises à utiliser l’IA de manière responsable, a adopté une approche différente pour corriger les biais dans son projet de cours : elle a créé des données synthétiques pour créer des ensembles de données plus équilibrés. Pour ce faire, ils ont expérimenté des modèles génératifs multimodaux – des modèles d’IA non supervisés capables de générer de nouvelles données similaires à celles d’un ensemble de données original – afin de créer de nouvelles variantes d’images faciales existantes. Leur idée était qu’un ensemble de nouvelles variations pourrait inclure les caractéristiques de race, de sexe ou d’autres variables protégées qui pourraient être sous-représentées dans l’ensemble de données original. Ces variations seraient insérées dans l’ensemble de données original, qui pourrait ensuite être utilisé pour entraîner un modèle en aval d’une manière qui serait moins susceptible de favoriser inadéquatement un type de visage par rapport à un autre.
Thor Jonsson, cofondateur d’EthicalAI, a déclaré : « Je peux utiliser le modèle génératif pour créer cet échantillon égal de différentes apparences de personnes. Donc, essentiellement, il s’agit d’injecter de nouvelles données dans l’ensemble de données qui nous permettent de créer un équilibre égal de personnes de différents âges, ethnies, genres, etc. »
La valeur, explique Jonsson, est que « ce n’est pas conditionnel à ce que je nomme des photos d’un homme ou d’une femme. Il s’agit plutôt de se demander « Quelles sont les différentes façons dont les visages peuvent être », et pouvons-nous nous assurer que ces visages rares, selon n’importe quel jeu de données que quelqu’un possède, soient représentés? Il s’agit vraiment de créer une façon automatisée de s’assurer que personne ne soit jamais affecté par la minorité. »
L’équipe d’EthicalAI développe maintenant le travail du cours, allant au-delà des images 2D typiques pour voir comment le travail d’atténuation s’applique aux images 3D de personnes. Ils ont également exprimé leur intérêt pour le développement de produits d’IA basés sur le projet.
Jonsson, lui-même chercheur en IA, attribue au programme le mérite d’avoir permis à l’équipe d’explorer davantage la pointe. « Le cours a vraiment fait progresser notre compréhension de ce créneau dans la communauté de recherche », a déclaré Jonsson. « Ce cours était entièrement axé sur le démarrage en termes de compréhension de ces idées récentes les plus récentes et les plus récentes qui ont émergé pour relever ce genre de problèmes. »
Pour d’autres petites et moyennes entreprises utilisant l’IA, Jonsson a un message : « Quiconque utilise l’IA aujourd’hui et ne fait pas de lutte contre les biais doit le faire. »
Adamson partage ce sentiment : « Nous encouragerions certainement chaque organisation à commencer à envoyer son personnel pour atteindre ce niveau. Plus nous pouvons pousser l’industrie dans cette direction, mieux tout le monde sera servi », a-t-il dit.
« Et bravo à Vector de l’avoir rendu disponible. »
Pour en savoir plus sur le prochain cours sur les biais en IA, parlez à votre conseiller en technologie industrielle (ITA) du NRC IRAP, visitez le site web du programme ou abonnez-vous à l’infolettre de Vector.