ChainML, Private AI et Geoffrey Hinton soulignent l'importance d'un développement et d'une gouvernance responsables de l'IA lors de la conférence Collision 2024.
20 juin 2024
20 juin 2024
Par Natalie Richard
L'IA était au cœur de la conférence Collision cette semaine. "Vous avez probablement fini d'en entendre parler. Arrêtez de parler de l'IA !" a plaisanté Shingai Manjengwa, responsable de l'éducation à l'IA chez ChainML, en montant sur la scène du Growth Summit à la conférence Collision. Si l'immense potentiel de l'IA était partout évoqué, il en allait de même pour la construction d'une IA sûre. "Certains d'entre vous sont enthousiastes", a déclaré Mme Manjengwa. "Mais certains d'entre vous ont peur. L'IA a un problème de confiance.
À mesure que l'IA devient plus performante avec des "agents" travaillant ensemble, elle soulève des questions clés sur l'équité, la partialité, la propriété, la gouvernance et la responsabilité. Ce sont précisément ces questions que Manjengwa et ChainML, la société FastLane de l'Institut Vecteur, abordent en s'intéressant à une technologie différente. "Nous avons commencé par explorer la technologie blockchain pour aider à gérer les agents d'intelligence artificielle de manière équitable et responsable", a déclaré M. Manjengwa devant une salle comble.
L'entreprise s'appuie sur la blockchain, la technologie qui sous-tend les crypto-monnaies comme le bitcoin, pour créer un système permettant de garder une trace de ce que font les programmes d'IA, et un moyen pour plusieurs parties de se mettre d'accord sur la manière dont l'IA devrait être gouvernée et gérée. Cela lui permet également d'explorer les contrats intelligents - des contrats auto-exécutoires dont les termes sont directement inscrits dans le code - et la cryptographie - une technique de sécurisation des communications - afin de mieux retracer la manière dont une IA prend ses décisions.
"Il faut savoir exactement quelles données on utilise, qui y a accès et à quel moment".
Patricia Thaine
Cofondateur et PDG de Private AI
Patricia Thaine, cofondatrice et PDG de la société Vector FastLane Private AI, a également abordé la question de la confiance et de la sécurité de l'IA, en particulier les problèmes de confidentialité liés aux grands modèles de langage.
Mme Thaine a souligné l'importance de tenir compte des principes de protection de la vie privée lors de la collecte et de l'utilisation de données pour la formation à l'IA. "Il faut savoir exactement quelles données on utilise, qui y aura accès et à quel moment", a-t-elle expliqué.
Elle a ensuite présenté au public l'idée de supprimer les informations personnelles avant qu'elles ne parviennent à des fournisseurs de modèles linguistiques tiers. Pour atténuer les risques potentiels liés à l'accès aux informations personnelles dans les systèmes d'IA, elle a suggéré de procéder à des examens complets des données traitées par les systèmes d'IA et de contrôler les équipes qui ont accès aux différents types de données à des fins de formation.
La création d'un outil permettant d'examiner plusieurs langues et types de fichiers afin de répondre aux exigences de conformité avec les nombreuses réglementations sur la protection des données dans le monde est un défi complexe. Pour relever ce défi, Thaine et Private AI ont développé PrivateGPT, un outil qui identifie et supprime les informations personnelles dans le texte, l'audio, les images et les documents. Leur innovation en matière d'IA sécurisée, appelée PrivateGPT, a déjà permis d'obtenir des résultats conformes à l'HIPAA et a été reconnue par des organisations telles que le Forum économique mondial et Gartner.
La sécurité de l'IA a également été au centre des préoccupations de Geoffrey Hinton, conseiller scientifique en chef de Vector, qui a mis le sujet sur le devant de la scène lors de sa conversation avec le commentateur politique Stephen Marche. Devant une salle comble, ils ont souligné l'importance de la gouvernance de l'IA ainsi que du développement et du déploiement d'une IA digne de confiance afin d'atténuer les effets néfastes potentiels.
Comme de nombreux membres de la communauté Vector, Manjengwa, Thaine et Hinton s'efforcent de faire en sorte que la confiance et la sécurité dans l'IA soient au cœur des préoccupations des participants à Collision. Ce n'est qu'à cette condition que nous pourrons atteindre le véritable potentiel de l'IA tout en atténuant les risques.
Découvrez comment l'Institut Vecteur favorise le développement et le déploiement d'une IA sûre.