FairSense : Intégrer l'IA responsable et le développement durable
21 janvier 2025
21 janvier 2025
Auteurs: Shaina Raza, Mark Coatsworth, Tahniat Khan, et Marcelo Lotif
Une nouvelle plateforme pilotée par l'IA étend la détection des préjugés aux contenus textuels et visuels, tout en s'appuyant sur des cadres d'IA à faible consommation d'énergie. Développée par Shaina Raza, chercheuse en ML appliquée à l'IA responsable, et l'équipe d'ingénierie de l'IA de Vector, FairSense-AI établit un équilibre entre l'efficacité énergétique et la sécurité des préjugés.
Les centres de données représentant jusqu'à 2 % de la consommation mondiale d'électricité, les préoccupations relatives à la durabilité environnementale de la GenAI s'ajoutent aux défis existants en matière de partialité et de désinformation. FairSense-AI s'appuie sur des cadres d'IA économes en énergie tout en fournissant un cadre soutenu par l'IA pour identifier les biais dans des contextes multimodaux et un outil de gestion des risques basé sur l'IA, offrant aux utilisateurs une approche structurée pour identifier, évaluer et atténuer les risques liés à l'IA. Un paquetage Python permet aux programmeurs d'intégrer facilement FairSense-AI dans le code logiciel.
Fairsense-AI analyse les textes pour y déceler les préjugés, en mettant en évidence les termes problématiques et en fournissant des informations sur les stéréotypes. Cet outil montre comment l'IA peut promouvoir la justice et l'équité dans l'analyse du langage.
S'appuyant sur UnBias, un précédent outil de neutralisation des préjugés développé par Vector, FairSense-AI identifie des modèles subtils de préjugés, de stéréotypes ou de favoritisme afin d'améliorer l'équité et l'inclusion dans le contenu numérique (texte et images). En outre, FairSense-AI utilise de grands modèles de langage (LLM) et de grands modèles de vision (VLM) qui sont optimisés pour l'efficacité énergétique, minimisant ainsi son impact sur l'environnement.
Les techniques d'optimisation ont permis de réduire les émissions à seulement 0,012 kg de CO2, ce qui prouve que les pratiques d'IA responsables peuvent avoir un impact sur l'environnement et être rentables dans la formation des MFR.
La réduction de l'impact environnemental de l'outil peut être constatée en comparant les émissions de carbone de Llama 3.2 1B (l'un des modèles fondamentaux intégrés dans l'outil) avant et après l'optimisation et la mise au point. Les émissions sont passées de 107 000 kg à seulement 0,012 kg par heure d'inférence, ce qui montre qu'il est possible d'atteindre les objectifs écologiques de l'IA sans compromettre la fonctionnalité ou la flexibilité. Le logiciel CodeCarbon a été utilisé pour évaluer l'impact environnemental de l'exécution du code. L'outil suit la consommation d'électricité pendant les calculs et la convertit en émissions de carbone en fonction de l'emplacement géographique du traitement. Les émissions de carbone ont été mesurées en kilogrammes (kg).
FairSense-AI recueille des données textuelles et des images provenant de diverses sources, puis utilise les LLM et VLM pour détecter des schémas subtils de partialité. Elle attribue un score en fonction de la gravité de la partialité et propose des recommandations pour un contenu plus équitable et plus inclusif. Tout au long du processus, FairSense-AI intègre des techniques d'optimisation de l'efficacité énergétique pour aligner l'IA responsable sur les objectifs de durabilité, en tirant parti des ressources locales et d'outils gratuits tels que Kiln.
Fairsense-AI peut analyser les préjugés visuels et mettre en évidence les inégalités systémiques entre les hommes et les femmes en matière d'opportunités et de ressources.
Cadre Fairsense
La science qui sous-tend l'optimisation de Fairsense repose sur l'exploitation de techniques avancées, notamment l'élagage des modèles, l'entraînement en précision mixte et le réglage fin, afin de réduire la complexité des modèles tout en préservant les performances. En supprimant de manière sélective les paramètres les moins critiques, en passant à des représentations numériques efficaces et en affinant soigneusement les modèles pré-entraînés, Fairsense réduit de manière significative les demandes de calcul et la consommation d'énergie. Cette approche rationalisée permet non seulement de maintenir une grande précision et une détection nuancée des biais et de l'identification des risques, mais aussi de s'aligner sur les objectifs de développement durable en minimisant l'empreinte carbone,
À l'avenir, les chercheurs de Vector espèrent ajouter une composante de gestion des risques de l'IA capable d'identifier les risques de l'IA, tels que la désinformation, la mésinformation ou les biais linguistiques et visuels, sur la base de requêtes. Ce cadre de gestion des risques, conçu par Tahniat Khan, s'appuiera sur le référentiel des risques du MIT et le cadre de gestion des risques du NIST, s'alignant ainsi sur les meilleures pratiques largement reconnues pour une gestion efficace des risques liés à l'IA.
La technologie peut être à la fois transformationnelle et éthique ; si l'IA générative est un outil puissant, elle introduit également un nouvel ensemble de risques. FairSense-AI établit une nouvelle norme pour l'innovation responsable en matière d'IA en rendant la détection des biais et l'identification des risques accessibles aux publics techniques et non techniques, tout en mettant l'accent sur l'efficacité énergétique. Il est possible de donner la priorité à des pratiques d'IA responsables qui profitent à la société et à la planète sans sacrifier l'innovation. Avec des solutions comme celle-ci, nous pouvons exploiter le potentiel de l'IA tout en garantissant un avenir plus équitable et durable pour tous.