ChainML, Private AI et Geoffrey Hinton soulignent l’importance du développement et de la gouvernance responsables de l’IA à Collision 2024

20 juin 2024

2024 Actualités

Par Natalie Richard

L’IA était au centre de la conférence Collision cette semaine. "Vous avez probablement fini d’en entendre parler. Arrêtez de parler d’IA !" a plaisanté Shingai Manjengwa, responsable de l’éducation à l’IA chez ChainML, alors qu’elle montait sur la scène du Growth Summit à Collision. Alors que l’on parlait partout de l’immense potentiel de l’IA, il en allait de même pour la construction d’une IA sûre. « Certains d’entre vous sont excités », a déclaré Manjengwa. "Mais certains d’entre vous ont peur. L’IA a un problème de confiance. 

À mesure que l’IA devient plus performante avec des « agents » travaillant ensemble, cela soulève des questions clés sur l’équité, les préjugés, la propriété, la gouvernance et la responsabilité. Ces questions sont exactement ce à quoi Manjengwa et ChainML, société FastLane de l’Institut Vecteur , s’attaquent en examinant une technologie différente. « Nous avons commencé par explorer la technologie blockchain pour aider à gérer les agents d’intelligence artificielle de manière équitable et responsable », a déclaré Manjengwa à la foule debout. 

La société tire parti de la blockchain, la technologie derrière les crypto-monnaies comme Bitcoin, pour créer un système de suivi de ce que font les programmes d’IA et un moyen pour plusieurs parties de se mettre d’accord sur la façon dont l’IA devrait être gouvernée et gérée. Cela leur permet également d’explorer les contrats intelligents - des contrats auto-exécutables avec les termes directement écrits dans le code - et la cryptographie - une technique de sécurisation de la communication - pour mieux retracer la façon dont une IA prend des décisions.

Blob

« Vous devez être intentionnel quant aux données que vous utilisez, qui y aura accès et quand. »

Patricia Thaine

Cofondateur et PDG, Private AI

Patricia Thaine, cofondatrice et PDG de Private AI, société Vector FastLane, a également abordé la confiance et la sécurité de l’IA, en particulier les problèmes de confidentialité avec les grands modèles de langage. 

Thaine a souligné l’importance de prendre en compte attentivement les principes de confidentialité lors de la collecte et de l’utilisation des données pour l’entraînement de l’IA. « Vous devez être intentionnel quant aux données que vous utilisez, qui y aura accès et quand », a-t-elle expliqué.

Elle a ensuite présenté à l’auditoire l’idée de supprimer les informations personnelles avant qu’elles n’atteignent des fournisseurs de modèles linguistiques tiers. Pour atténuer les risques potentiels d’accès aux informations personnelles dans les systèmes d’IA, elle a suggéré des examens complets traités par les systèmes d’IA et de contrôler quelles équipes ont accès aux différents types de données pour la formation. 

La création d’un outil permettant d’examiner plusieurs langues et types de fichiers pour répondre aux exigences de conformité à de nombreuses réglementations en matière de protection des données dans le monde entier est un défi complexe. Pour y remédier, Thaine et Private AI ont développé PrivateGPT, un outil identifiant et supprimant les informations personnelles dans le texte, l’audio, les images et les documents. Leur innovation en matière d’IA sûre, appelée PrivateGPT, a déjà obtenu des résultats conformes à la loi HIPAA et a été reconnue par des organisations comme le Forum économique mondial et Gartner.

La sécurité de l’IA a également été au cœur des préoccupations du conseiller scientifique en chef de Vector, Geoffrey Hinton, qui a mis le sujet au centre de sa conversation avec le commentateur politique Stephen Marche. Leur discours devant une salle comble a soulevé l’importance de la gouvernance de l’IA et du développement et du déploiement d’une IA fiable pour atténuer les dommages potentiels.

Comme de nombreux membres de la communauté de Vector, Manjengwa, Thaine et Hinton s’efforcent de s’assurer que la confiance et la sécurité dans l’IA sont au cœur des préoccupations des participants à Collision. Ce n’est qu’alors que nous pourrons atteindre le véritable potentiel de l’IA tout en atténuant les risques. 

Découvrez comment l'Institut Vecteur favorise le développement et le déploiement d'une IA sûre. 

En rapport :

Akbar Nurlybayev, cofondateur et directeur de l'exploitation de Vector CentML, sponsor de bronze, s'exprime sur scène lors de la Collision Conference 2024.
2024
Nouvelles

Le changement climatique et l'IA computationnelle clôturent la troisième et dernière journée de Collision 2024

2024
Étude de cas
Recherche
Recherche 2024

BMO, TELUS et leurs partenaires utilisent la boîte à outils Vector AI pour appliquer les techniques de vision par ordinateur dans la lutte contre les changements climatiques

Raquel Urtasun, membre de la faculté Vector, s'exprimant sur scène à Collision 2024.
2024
Nouvelles

Selon Raquel Urtasun, cofondatrice de Vector, les camions autopilotés seront sur les routes l'année prochaine lors du salon Collision 2024.