ChainML, Private AI et Geoffrey Hinton soulignent l’importance d’un développement et d’une gouvernance responsables de l’IA lors de Collision 2024

20 juin 2024

Nouvelles 2024

Par Natalie Richard

L’IA était au cœur de la conférence Collision cette semaine. « Tu as probablement fini d’en entendre parler. Arrêtez de parler d’IA! » a plaisanté Shingai Manjengwa, responsable de l’éducation à l’IA chez ChainML, alors qu’elle montait sur la scène du Sommet de la Croissance chez Collision. Alors que les discussions sur l’immense potentiel de l’IA étaient partout, il en allait de même pour construire une IA sécuritaire. « Certains d’entre vous sont excités », dit Manjengwa. « Mais certains d’entre vous ont peur. L’IA a un problème de confiance. » 

À mesure que l’IA devient plus compétente grâce à la collaboration des « agents », elle soulève des questions clés concernant l’équité, le biais, la propriété, la gouvernance et la responsabilité. Ces questions sont précisément celles que Manjengwa et la société FastLane du Vector Institute, ChainML, abordent en examinant une technologie différente. « Nous avons commencé par explorer la technologie blockchain pour aider à gérer les agents d’intelligence artificielle de manière équitable et responsable », a déclaré Manjengwa à la foule pleine de réserves. 

L’entreprise exploite la blockchain, la technologie derrière les cryptomonnaies comme le Bitcoin, pour créer un système permettant de suivre ce que font les programmes d’IA, et un moyen pour plusieurs parties de s’entendre sur la façon dont l’IA doit être gouvernée et gérée. Cela leur permet aussi d’explorer les contrats intelligents — des contrats auto-exécutables avec les termes directement inscrits dans le code — et la cryptographie — une technique pour sécuriser la communication — afin de mieux retracer la manière dont une IA prend ses décisions.

Blob

« Tu dois être intentionnel sur les données exactes que tu utilises, qui y aura accès, et quand. »

Patricia Thaine

Cofondateur et PDG, Private AI

Patricia Thaine, cofondatrice et PDG de Private AI, entreprise de Vector FastLane, a également abordé la confiance et la sécurité de l’IA, notamment les préoccupations liées à la confidentialité avec les grands modèles de langage. 

Thaine a souligné l’importance de prendre soigneusement en compte les principes de la vie privée lors de la collecte et de l’utilisation des données pour l’entraînement de l’IA. « Il faut être intentionnel sur les données exactes que vous utilisez, qui y aura accès, et quand », expliqua-t-elle.

Elle a ensuite présenté au public l’idée de supprimer les informations personnelles avant qu’elles n’atteignent des fournisseurs tiers de modèles linguistiques. Pour atténuer les risques potentiels liés à l’accès à des informations personnelles dans les systèmes d’IA, elle a suggéré des examens complets traités par des systèmes d’IA et de contrôler quelles équipes ont accès à différents types de données pour la formation. 

Créer un outil pour examiner plusieurs langues et types de fichiers afin de répondre aux exigences de conformité avec de nombreuses réglementations sur la protection des données à travers le monde est un défi complexe. Pour y remédier, Thaine et Private AI ont développé PrivateGPT, un outil qui identifie et supprime les informations personnelles dans le texte, l’audio, les images et les documents. Leur innovation en IA sécuritaire, appelée PrivateGPT, a déjà obtenu des résultats conformes à la HIPAA, avec la reconnaissance d’organisations comme le Forum économique mondial et Gartner.

La sécurité de l’IA a aussi été une priorité pour Geoffrey Hinton, conseiller scientifique en chef de Vector, qui a mis le sujet au centre de sa conversation avec le commentateur politique Stephen Marche. Leur intervention devant un public comble a souligné l’importance de la gouvernance de l’IA et du développement et du déploiement d’une IA fiable pour atténuer les risques potentiels.

Comme beaucoup de membres de la communauté de Vector, Manjengwa, Thaine et Hinton travaillent à garantir que la confiance et la sécurité dans l’IA soient au cœur des préoccupations des participants à Collision. Ce n’est qu’ainsi que nous pourrons atteindre le véritable potentiel de l’IA tout en atténuant les risques. 

Découvrez comment le Vector Institute favorise le développement et le déploiement sécuritaires de l’IA 

À lire aussi :

2025
Génie de l’IA
Nouvelles
Recherche
Recherche 2025

Quand l’IA rencontre les affaires humaines : évaluer les modèles multimodaux à travers une perspective centrée sur l’humain – Voici HumaniBench

Logo vectoriel
2025
Nouvelles

Le Vector Institute annonce la nomination de Glenda Crisp comme présidente et chef de la direction

Logo vectoriel
2025
Nouvelles

Le Vector Institute dévoile une évaluation complète des principaux modèles d’IA