Politiques, réglementation et leadership d’opinion en IA

Élaborer des politiques et une réglementation efficaces en matière d’IA

Vector est une voix de premier plan dans l’orientation de la conversation mondiale autour de la gouvernance et de l’éthique de l’IA. Nos initiatives de collaboration multipartites amplifient les voix au sein du milieu universitaire, de l’industrie et du gouvernement, assurant que le Canada établit une norme mondiale pour une IA sécuritaire et inclusive qui stimule l’innovation tout en promouvant l’équité, la responsabilité et le bien-être humain. Accédez à nos idées, commentaires et ressources pour bâtir des politiques et une réglementation efficaces :

Réflexions

Vector participe à de nombreux groupes de travail multipartites avec le FEM, l’OCDE, le gouvernement de l’Ontario et le gouvernement du Canada afin de mettre en place des mécanismes robustes de gouvernance de l’IA.

Vector a été un pionnier des principes de confiance et de sécurité en IA

Au cœur de la communauté canadienne de l’IA, l’Institut Vector a développé six principes de confiance et de sécurité pour l’IA, publiés en juin 2023. Ces principes fondamentaux visent à guider les organisations mondiales dans la création de politiques responsables en matière d’IA, affirmant l’engagement du Canada envers un leadership éthique en IA.

Vector et Schwartz Reisman Institute for Technology and Society (SRI) : Partenariat pour une innovation responsable en IA

Le Vector Institute et le Schwartz Reisman Institute for Technology and Society (SRI) partagent une vision visant à rendre les systèmes d’IA fiables, sécuritaires et alignés avec les valeurs humaines. 

Vector est un chef de file dans la recherche fondamentale et appliquée en apprentissage automatique, faisant progresser les capacités et la sécurité de l’IA pour favoriser l’innovation responsable dans tous les secteurs de l’économie en développant des solutions pratiques qui s’attaquent aux risques à court et à long terme liés à l’IA. 

SRI, au sein de l’Université de Toronto, est un institut de recherche interdisciplinaire qui explore les défis éthiques, sociétaux et de gouvernance posés par les technologies avancées, comme l’IA. Grâce à des analyses de recherche, SRI favorise une innovation responsable et sécuritaire, façonnant les politiques publiques et informant la société sur les impacts actuels et futurs de l’IA. 

Ensemble, Vector et SRI visent à établir le Canada comme un leader mondial en innovation responsable en IA, en veillant à ce que les avancées technologiques profitent à toute l’humanité.

Forum économique mondial – Principes directeurs pour une IA éthique

Vector collabore avec le FEM par l’entremise de leur groupe de travail sur la gouvernance de l’IA (représenté par Andres Rojas, directeur des projets d’IA appliquée chez Vector). Par l’entremise de ces groupes, Vector a collaboré avec des collaborateurs pour fournir des lignes directrices et des cadres conçus pour orienter le développement de l’IA vers des impacts sociétaux bénéfiques.

En plus de la représentation formelle de Vector, des membres individuels de la communauté Vector, comme Gillian Hadfield, membre du corps professoral, apportent également leur expertise au groupe de travail sur la gouvernance de l’IA.

L’Organisation de coopération et de développement économiques (OCDE)

Groupe de travail sur les données et la confidentialité de l’IA

Nicolas Papernot est un contributeur et représente Vector pour soutenir les dialogues avec l’OCDE sur des synergies politiques en IA, données et vie privée. L’évolution rapide de l’IA nécessite une coopération internationale accrue en matière de gouvernance des données et de vie privée afin de s’assurer que les opportunités et les défis soient gérés efficacement à travers les juridictions mondiales.

Groupe d’experts sur les futurs de l’IA

Graham Taylor est contributeur au groupe d’experts sur l’IA Futures, représentant Vector, et à travers ce travail, fournit à l’OCDE des perspectives sur l’avenir de l’IA et dote les gouvernements des connaissances et outils nécessaires pour élaborer des politiques d’IA tournées vers l’avenir.

Réglementation et normes

Des chercheurs en vecteurs parmi les chercheurs de premier plan qui ont rédigé des articles consensuels sur les risques des systèmes avancés d’IA, ainsi qu’un appel urgent à l’action pour faire progresser la recherche sur la sécurité de l’IA et une surveillance gouvernementale efficace.

Cadre stratégique pour la sécurité de l’IA : IDAIS-Pékin (2024)

Du 10 au 11 mars 2024, les dirigeants de GLobal AI se sont réunis à IDAIS-Beijing pour élaborer des stratégies sur la sécurité de l’IA et ont rédigé un consensus pour prévenir le développement d’IA à haut risque. Le conseiller scientifique en chef Geoffrey Hinton et la membre du corps professoral de Vector, Gillian Hadfield, ont participé à ces dialogues et ont contribué à la déclaration de Beijing.

Les chercheurs en vecteurs de SRI collaborent avec le Groupe de travail sur la certification (CWG) pour tracer l’avenir de la certification en IA (2024)

Le dernier rapport du CWG, en collaboration avec SRI et plusieurs chercheurs de Vector, propose des recommandations concrètes pour créer un écosystème de certification solide qui garantit que les systèmes d’IA sont responsables et éthiques, en défendant des objectifs gouvernementaux clairs et des efforts collaboratifs pour établir des normes et favoriser la demande sur le marché pour les technologies d’IA certifiées. Cette initiative représente une étape cruciale vers la confiance envers l’IA grâce à l’innovation, la transparence et la conformité réglementée aux valeurs sociétales. Lisez le rapport ici.

Gestion des risques liés à l’IA (2023)

Avant le Sommet britannique sur la sécurité de l’IA (novembre 2023), les chercheurs de Vector ont joué un rôle important dans la création d’un document de consensus (octobre 2023) présentant les risques liés aux systèmes d’IA avancés à venir, qui a nourri les dialogues du Sommet britannique sur la sécurité intitulé : Gérer les risques de l’IA à une ère de progrès rapide :

RI et Vector Institute consultent sur le cadre fiable de l’intelligence artificielle de l’Ontario (2021)

Alors que l’utilisation et la complexité de l’IA dépassent les efforts réglementaires mondiaux, l’Ontario a lancé des efforts vers un cadre d’IA adaptable et fondé sur les droits, en faisant appel à des experts de Vector; Gillian Hadfield et l’ancien PDG de Vector, Garth Gibson. Vector a fourni des stratégies de gouvernance pour le gouvernement qui favorisent l’innovation et la confiance grâce à l’apprentissage continu – Lisez la réponse et le cadre ici.

Gouvernance

En collaboration avec l’industrie et le gouvernement, Vector contribue à façonner les principes et normes pour une utilisation sûre et responsable de l’IA. Vector siège à plusieurs groupes de travail dans ce domaine.

Un homme regarde un tableau blanc avec des formules rouges dessus

Comment implémenter en toute sécurité des systèmes d’IA

Logo vectoriel. Thèmes d’IA fiables pour les affaires issus de la communauté Vector

Thèmes d’IA fiables pour les affaires issus de la communauté Vector

IA générative pour l’entreprise : risques et opportunités

Tir à la tête d’Azra Dhalla

Mise en œuvre sécuritaire de l’IA en santé : pourquoi la bonne approche est importante

La série Trustworthy AI de Vector :

Inscrivez-vous au portail partenaire de Vector

Saviez-vous que le portail partenaires de Vector est un centre central pour nos partenaires de l’industrie afin d’accéder à du contenu premium et à des ressources exclusives qui vous fournissent des informations exploitables et des outils pour améliorer vos connaissances et compétences en IA? 

Faites-vous partie de notre communauté?