Politique, réglementation et leadership éclairé en matière d'IA
Élaborer une politique et une réglementation efficaces en matière d'IA
Vector est un acteur de premier plan dans le débat mondial sur la gouvernance et l'éthique de l'IA. Nos initiatives de collaboration multipartite amplifient les voix du monde universitaire, de l'industrie et du gouvernement, en veillant à ce que le Canada établisse une norme mondiale pour une IA sûre et inclusive qui stimule l'innovation tout en promouvant l'équité, la responsabilité et le bien-être humain. Accédez à nos idées, commentaires et ressources sur l'élaboration de politiques et de réglementations efficaces :

Perspectives
Vector participe à de nombreux groupes de travail multipartites avec le WEF, l'OCDE, le gouvernement de l'Ontario et le gouvernement du Canada afin de mettre en place des mécanismes solides de gouvernance de l'IA.
Vector est le pionnier des principes de confiance et de sécurité en matière d'IA
Au cœur de la communauté canadienne de l'IA, l'Institut Vecteur a élaboré six principes de confiance et de sécurité pour l'IA, qui seront publiés en juin 2023. Ces principes fondamentaux visent à guider les organisations mondiales dans l'élaboration de politiques d'IA responsables, affirmant l'engagement du Canada à jouer un rôle de chef de file en matière d'IA éthique.
Vector et Schwartz Reisman Institute for Technology and Society (SRI) : Partenariat pour une innovation responsable en matière d'IA
Le Vector Institute et le Schwartz Reisman Institute for Technology and Society (SRI) partagent la même vision : rendre les systèmes d'IA dignes de confiance, sûrs et conformes aux valeurs humaines.
Vector est un leader de la recherche fondamentale et appliquée en matière d'apprentissage automatique. Il fait progresser les capacités et la sécurité de l'IA afin de favoriser l'innovation responsable dans tous les secteurs de l'économie en développant des solutions pratiques qui répondent aux risques de l'IA à court et à long terme.
SRI, au sein de l'Université de Toronto, est un institut de recherche interdisciplinaire qui explore les défis éthiques, sociétaux et de gouvernance posés par les technologies avancées, telles que l'IA. Grâce à ses recherches, le SRI promeut une innovation responsable et sûre, en façonnant les politiques publiques et en informant la société des impacts actuels et futurs de l'IA.
Ensemble, Vector et SRI visent à faire du Canada un leader mondial de l'innovation responsable en matière d'IA, en veillant à ce que les avancées technologiques profitent à l'ensemble de l'humanité.
Forum économique mondial - Principes directeurs pour une IA éthique
Vector collabore avec le WEF par l'intermédiaire de son groupe de travail sur la gouvernance de l'IA (représenté par Tony Gaffney, président-directeur général de Vector) et de son groupe de travail technique sur la sécurité et la technologie de l'IA (représenté par Jeff Clune, membre de la faculté de Vector). Par l'intermédiaire de ces groupes, Vector a travaillé avec des collaborateurs pour élaborer des lignes directrices et des cadres conçus pour orienter le développement de l'IA vers des impacts sociétaux bénéfiques.
Outre la représentation officielle de Vector, des membres individuels de la communauté Vector, tels que Gillian Hadfield, membre de la faculté, apportent également leur expertise au groupe de travail sur la gouvernance de l'IA.
L'Organisation de coopération et de développement économiques (OCDE)
Groupe de travail sur les données de l'IA et la protection de la vie privée
Nicolas Papernot est un contributeur et représente Vector pour soutenir les dialogues avec l'OCDE sur les synergies politiques en matière d'IA, de données et de protection de la vie privée. L'évolution rapide de l'IA nécessite une coopération internationale accrue en matière de gouvernance des données et de protection de la vie privée afin de s'assurer que les opportunités et les défis sont gérés efficacement à travers les juridictions mondiales.
Groupe d'experts sur l'avenir de l'IA
Graham Taylor contribue au groupe d'experts sur l'avenir de l'IA , représentant Vector, et, par ce travail, fournit à l'OCDE des informations sur l'avenir de l'IA et dote les gouvernements des connaissances et des outils nécessaires pour élaborer des politiques d'IA tournées vers l'avenir.
Réglementation et normes
Les chercheurs de Vector font partie des principaux universitaires qui ont rédigé un document de consensus sur les risques des systèmes d'IA avancés, ainsi qu'un appel urgent à l'action pour faire progresser la recherche sur la sécurité de l'IA et la surveillance efficace par les pouvoirs publics.
Cadre stratégique pour la sécurité de l'IA : IDAIS-Beijing (2024)
Du 10 au 11 mars 2024, les leaders mondiaux de l'IA se sont réunis à l'IDAIS-Beijing pour élaborer une stratégie sur la sécurité de l'IA et rédiger un consensus sur la prévention du développement de l'IA à haut risque. Geoffrey Hinton, conseiller scientifique en chef, et Gillian Hadfield, membre de la faculté Vector, ont participé à ces dialogues et contribué à la déclaration de Pékin.
Les chercheurs en sciences vectorielles du SRI travaillent avec le groupe de travail sur la certification (CWG) pour définir l'avenir de la certification de l'IA (2024)
Le dernier rapport du CWG, rédigé en collaboration avec le SRI et plusieurs chercheurs de Vector, formule des recommandations concrètes pour la création d'un écosystème de certification solide garantissant que les systèmes d'IA sont responsables et éthiques. Il préconise des objectifs gouvernementaux clairs et des efforts de collaboration pour établir des normes et stimuler la demande du marché pour des technologies d'IA certifiées. Cette initiative représente une étape cruciale pour susciter la confiance dans l'IA grâce à l'innovation, la transparence et la conformité réglementée aux valeurs sociétales. Lire le rapport ici.
Gérer les risques liés à l'IA (2023)
En amont du sommet britannique sur la sécurité de l'IA (novembre 2023), les chercheurs de Vector ont joué un rôle important dans la création d'un document de consensus (octobre 2023) décrivant les risques liés aux systèmes d'IA avancés à venir, qui a alimenté les dialogues lors du sommet britannique sur la sécurité intitulé : Managing AI Risks in an Era of Rapid Progress (Gérer les risques de l'IA à l'ère du progrès rapide) :
Le Rotary et l'Institut Vecteur se concertent sur le cadre ontarien pour une intelligence artificielle digne de confiance (2021)
Alors que l'utilisation et la complexité de l'IA dépassent les efforts de réglementation mondiaux, l'Ontario a lancé des efforts en vue d'un cadre d'IA adaptable et fondé sur les droits, en faisant appel à des experts de Vector, Gillian Hadfield et l'ancien PDG de Vector, Garth Gibson. Vector a proposé au gouvernement des stratégies de gouvernance qui favorisent l'innovation et la confiance grâce à l'apprentissage continu - Lire la réponse et le cadre ici.
Gouvernance
En collaboration avec l'industrie et le gouvernement, Vector contribue à l'élaboration de principes et de normes pour une utilisation sûre et responsable de l'IA. Vector fait partie de plusieurs groupes de travail dans ce domaine.

Comment mettre en œuvre des systèmes d'IA en toute sécurité

Thèmes d'IA dignes de confiance pour les entreprises de la communauté Vector

L'IA générative pour l'entreprise : Risques et opportunités

Mise en œuvre sûre de l'IA dans le domaine de la santé : Pourquoi la bonne approche est importante
Série "Trustworthy AI" de Vector :
S'inscrire au portail des partenaires de Vector
Saviez-vous que le portail des partenaires de Vector est une plate-forme centrale permettant à nos partenaires de l'industrie d'accéder à un contenu de qualité supérieure et à des ressources exclusives qui vous fournissent des informations et des outils exploitables pour améliorer vos connaissances et vos compétences en matière d'IA ?
Vous faites partie de notre communauté ?