FairSense : Intégrer l’IA responsable et la durabilité
21 janvier 2025
21 janvier 2025
Auteurs : Shaina Raza, Mark Coatsworth, Tahniat Khan et Marcelo Lotif
Une nouvelle plateforme pilotée par l’IA étend la détection des biais pour inclure du texte et du contenu visuel, tout en tirant parti de cadres d’IA écoénergétiques. Développé par Shaina Raza, scientifique en apprentissage automatique appliqué chez Responsible AI, et l’équipe d’ingénierie IA de Vector, FairSense-AI équilibre efficacité énergétique et sécurité face aux biais.
Avec les centres de données représentant jusqu’à 2% de la consommation mondiale d’électricité, les préoccupations concernant la durabilité environnementale de GenAI augmentent, parallèlement aux défis existants liés au biais et à la désinformation. FairSense-AI exploite des cadres d’IA écoénergétiques tout en fournissant un cadre soutenu par l’IA pour identifier les biais dans des contextes multimodaux ainsi qu’un outil de gestion des risques piloté par l’IA, offrant aux utilisateurs une approche structurée pour identifier, évaluer et atténuer les risques liés à l’IA. Un paquet Python permet aux programmeurs d’intégrer facilement FairSense-AI dans le code logiciel.
Fairsense-AI analyse le texte à la recherche de biais, mettant en évidence les termes problématiques et fournissant des éclairages sur les stéréotypes. Cet outil démontre comment l’IA peut promouvoir l’équité et l’équité dans l’analyse du langage
S’appuyant sur UnBias, un outil de neutralisation des biais développé auparavant par Vector, FairSense-AI identifie des schémas subtils de préjugés, de stéréotypes ou de favoritisme afin d’améliorer l’équité et l’inclusivité dans le contenu numérique (texte et images). De plus, FairSense-AI exploite de grands modèles de langage (LLM) et de grands modèles de vision (VLM) optimisés pour l’efficacité énergétique, minimisant ainsi son impact environnemental.
Les techniques d’optimisation ont réduit les émissions à seulement 0,012 kg de CO2, démontrant que des pratiques d’IA responsables peuvent être à la fois à impact environnemental et rentables dans la formation des LLMs
L’impact environnemental réduit de l’outil peut être observé en comparant les émissions de carbone de Llama 3.2 1B (l’un des modèles fondamentaux intégrés) avant et après l’optimisation et l’ajustement fin. Les émissions ont été réduites de 107 000 kg à seulement 0,012 kg par heure d’inférence, ce qui met en lumière comment les objectifs d’IA verte peuvent être atteints sans compromettre la fonctionnalité ou la flexibilité. Le logiciel CodeCarbon a été utilisé pour évaluer l’impact environnemental de l’exécution du code. L’outil suit la consommation d’électricité pendant le calcul et la convertit en émissions de carbone selon la localisation géographique du traitement. Les émissions de carbone étaient mesurées en kilogrammes (kg).
FairSense-AI collecte des données textuelles et d’images provenant de diverses sources, puis utilise des LLM et VLM pour détecter des motifs subtils de biais. Il attribue un score basé sur la gravité du biais et propose des recommandations pour un contenu plus équitable et inclusif. Tout au long du processus, FairSense-AI intègre des techniques d’optimisation écoénergétiques pour aligner l’IA responsable sur les objectifs de durabilité, en tirant parti des ressources locales et des outils gratuits comme Kiln.
Fairsense-AI peut analyser les biais visuels, mettant en lumière l’inégalité systémique des genres en matière d’opportunités et de ressources
Cadre Fairsense
La science derrière l’optimisation de Fairsense réside dans l’utilisation de techniques avancées incluant l’élagage des modèles, l’entraînement en précision mixte et l’ajustement fin, afin de réduire la complexité du modèle tout en préservant la performance. En supprimant sélectivement des paramètres moins critiques, en passant à des représentations numériques efficaces et en affinant soigneusement les modèles pré-entraînés, Fairsense réduit considérablement les besoins computationnels et la consommation d’énergie. Cette approche simplifiée maintient non seulement une grande précision et une détection nuancée des biais ainsi que l’identification des risques, mais elle s’aligne aussi sur les objectifs de durabilité en minimisant l’empreinte carbone,
À l’avenir, les chercheurs de Vector espèrent ajouter un volet de gestion des risques en IA capable d’identifier les risques liés à l’IA, tels que la désinformation, la désinformation ou les biais linguistiques et visuels, à partir des requêtes. Ce cadre de gestion des risques, conçu par Tahniat Khan, s’appuiera sur le MIT Risk Repository et le NIST Risk Management Framework, en accord avec les meilleures pratiques largement reconnues pour une gestion efficace des risques en IA.
La technologie peut être à la fois transformatrice et éthique; bien que l’IA générative soit un outil puissant, il introduit aussi un nouvel ensemble de risques. FairSense-AI établit une nouvelle norme pour l’innovation responsable en IA en rendant la détection des biais et l’identification des risques accessibles tant aux publics techniques qu’aux publics non techniques, tout en maintenant l’accent sur l’efficacité énergétique. Il est possible de prioriser des pratiques d’IA responsables qui profitent à la société et à la planète sans sacrifier l’innovation. Avec des solutions comme celle-ci, nous pouvons exploiter le potentiel de l’IA tout en assurant un avenir plus équitable et durable pour tous.