Il s’agit d’une fenêtre de navigation qui superpose le contenu principal de la page. Appuyer sur le « X » dans le coin supérieur droit du modal fermera le modal et vous ramène à l’endroit où vous étiez sur la page.
Voir les publications à propos de
Il s’agit d’une fenêtre d’appel à l’action qui superpose le contenu principal de la page. Appuyer sur le « X » dans le coin supérieur droit du modal fermera le modal et vous ramène à l’endroit où vous étiez sur la page.
Allons Collaborer
Il s’agit d’une fenêtre de recherche qui superpose le contenu principal de la page. Appuyer sur le « X » dans le coin supérieur droit du modal fermera le modal et vous ramène à l’endroit où vous étiez sur la page.
Confiance et sécurité de l’IA
Au Vector Institute, nous croyons que réaliser le potentiel transformateur de l’intelligence artificielle exige un engagement inébranlable envers la confiance et la sécurité.
Notre étoile polaire? Établissez une norme mondiale pour l’IA – afin que, partout où l’IA est utilisée, elle puisse être digne de confiance, sécuritaire et alignée avec les valeurs humaines.
Établir une norme mondiale pour une IA sécuritaire et fiable en exploitant l’écosystème d’IA de classe mondiale de l’Ontario
Vector est à l’avant-garde de l’adoption responsable de l’IA, servant de contrepoids et démocratisant l’IA au bénéfice de la société en se concentrant sur la recherche en sécurité de l’IA et sur des outils permettant aux organisations de déployer l’IA de manière éthique. Grâce à des partenariats avec des hôpitaux de recherche et des institutions académiques de renommée mondiale à Toronto, berceau de l’apprentissage automatique moderne et cœur du centre économique du Canada, Vector rassemble les esprits les plus brillants pour faire avancer la recherche fondamentale et appliquée en sécurité de l’IA.
À travers ce collectif, Vector a publiéles Principes de confiance et de sécurité de l’IA, et continue de faire progresser la recherche de pointe, les outils appliqués et les cadres de cadre, aidant les organisations à mettre en pratique leurs principes.
Obtenez des informations sur
Principes de confiance et de sécurité en IA
Au Vector Institute, la confiance et la sécurité sont au cœur de tout ce que nous faisons. Nos principes de confiance et de sécurité en IA, développés en collaboration avec des partenaires de l’industrie, du gouvernement et du milieu universitaire, fournissent des repères clairs pour le développement et le déploiement responsables de l’IA :
L’IA devrait bénéficier aux humains et à la planète
Les systèmes d’IA devraient refléter les valeurs démocratiques
L’IA doit respecter la vie privée et la sécurité
L’IA doit être robuste, sécuritaire et protégée
La supervision de l’IA exige une divulgation responsable
Les organisations qui développent l’IA doivent être responsables
Conseiller scientifique en chef, Vector Institute | Professeur émérite distingué d’informatique, Université de Toronto | Compagnon de l’Ordre du Canada | Lauréat du prix ACM A.M. Turing | Lauréat du prix Nobel de physique 2024
« Un 'énorme effort' devrait être fait pour protéger la technologie contre les acteurs malveillants, et pour former l’intelligence artificielle à être plus bienveillante. »
Membre du corps professoral, Vector Institute | Professeur, Département d’informatique, Université de Toronto | Chaire d’intelligence artificielle du CIFAR au Canada | Directeur associé et responsable de la recherche à l’Institut Schwartz Reisman pour la technologie et la société
« Nous sommes dans un moment véritablement transformateur. C’est une période vraiment excitante... mais aussi un moment pour un peu de soin et un peu de risque... On est un peu dans le Far West. »
Membre du corps professoral, Vector Institute | Professeur agrégé, Département des sciences statistiques et Département d’informatique, Université de Toronto | Chaire d’intelligence artificielle du CIFAR au Canada | Chaire de l’Institut Schwartz Reisman en technologie et société
« Nous sommes sur une voie vers un monde où les machines peuvent littéralement tout faire mieux que nous. Avant d’y arriver, nous devons nous assurer que notre civilisation a des incitatifs forts et stables pour nous garder heureux et en santé, même lorsque nous sommes un frein net à la croissance. »
Membre du corps professoral, Vector Institute | Professeur agrégé, département d’informatique, Université de Toronto | Chaire d’intelligence artificielle du CIFAR au Canada | Chaire de l’Institut Schwartz Reisman en technologie et société
« Avec la rapidité de l’IA qui progresse, nous devons prévoir et prévenir les risques catastrophiques qui découleront des systèmes d’IA futurs. On ne peut pas se permettre d’attendre que ça tourne mal. »
Conseiller scientifique en chef, Vector Institute | Professeur émérite distingué d’informatique, Université de Toronto | Compagnon de l’Ordre du Canada | Lauréat du prix ACM A.M. Turing | Lauréat du prix Nobel de physique 2024
« Un 'énorme effort' devrait être fait pour protéger la technologie contre les acteurs malveillants, et pour former l’intelligence artificielle à être plus bienveillante. »
Sheila McIlraith
Membre du corps professoral, Vector Institute | Professeur, Département d’informatique, Université de Toronto | Chaire d’intelligence artificielle du CIFAR au Canada | Directeur associé et responsable de la recherche à l’Institut Schwartz Reisman pour la technologie et la société
« Nous sommes dans un moment véritablement transformateur. C’est une période vraiment excitante... mais aussi un moment pour un peu de soin et un peu de risque... On est un peu dans le Far West. »
David Duvenaud
Membre du corps professoral, Vector Institute | Professeur agrégé, Département des sciences statistiques et Département d’informatique, Université de Toronto | Chaire d’intelligence artificielle du CIFAR au Canada | Chaire de l’Institut Schwartz Reisman en technologie et société
« Nous sommes sur une voie vers un monde où les machines peuvent littéralement tout faire mieux que nous. Avant d’y arriver, nous devons nous assurer que notre civilisation a des incitatifs forts et stables pour nous garder heureux et en santé, même lorsque nous sommes un frein net à la croissance. »
Roger Grosse
Membre du corps professoral, Vector Institute | Professeur agrégé, département d’informatique, Université de Toronto | Chaire d’intelligence artificielle du CIFAR au Canada | Chaire de l’Institut Schwartz Reisman en technologie et société
« Avec la rapidité de l’IA qui progresse, nous devons prévoir et prévenir les risques catastrophiques qui découleront des systèmes d’IA futurs. On ne peut pas se permettre d’attendre que ça tourne mal. »
Leadership en IA sécuritaire : La façon canadienne
Notre voix principale pour façonner la conversation mondiale autour de la gouvernance et de l’éthique de l’IA
Travailler sur l’alignement, la robustesse, la confidentialité et la sécurité de l’IA dans plusieurs secteurs
Recherche appliquée et ingénierie d’outils et de cadres permettant une adoption responsable de l’IA, notamment : Évaluation, modélisation, benchmarking et plus encore
Cadres, conseils et projets collaboratifs spécifiques au secteur dans les domaines de la santé, des services financiers, du gouvernement et plus encore
Nous travaillons avec des leaders mondiaux comme SRI, l’OCDE, le FEM et les gouvernements pour définir des normes et des meilleures pratiques pour une IA fiable
Recherche sur la confiance et la sécurité de l’IA
Les chercheurs de classe mondiale de Vector abordent à la fois les risques à court terme et existentiels en matière de vie privée et de sécurité, d’équité algorithmique, de robustesse des modèles, d’alignement de l’IA et de gouvernance des AGI afin de s’assurer que les systèmes d’IA sont conçus pour atteindre les résultats souhaités et atténuer les risques catastrophiques. Découvrez nos profils et publications.
Gouvernance, réglementation et leadership d’opinion de l’IA
Vector est une voix de premier plan dans l’orientation de la conversation mondiale autour de la gouvernance et de l’éthique de l’IA. Nos initiatives de collaboration multipartites amplifient les voix au sein du milieu universitaire, de l’industrie et du gouvernement, assurant que le Canada établit une norme mondiale pour une IA sécuritaire et inclusive qui stimule l’innovation tout en promouvant l’équité, la responsabilité et le bien-être humain. Accédez à nos idées, commentaires et ressources pour élaborer des politiques et une réglementation efficaces.
Principes à pratiquer : évaluations, outils et cadres
Lorsque vous serez prêt à mettre en pratique les principes de confiance et de sécurité de l’IA – utilisez la vaste collection de ressources de Vector pour guider votre parcours. Des cadres pour la santé et les services financiers aux outils open source, notre centre de ressources peut vous aider.
Découvrez des articles connexes sur la confiance et la sécurité
2023
Réflexions
Recherche
Recherche 2023
IA fiable
Neutraliser les biais en IA : le cadre UnBIAS du Vector Institute révolutionne l’analyse éthique des textes
2024
Réflexions
IA fiable
Comment implémenter en toute sécurité des systèmes d’IA
2022
Blogue
Réflexions
Apprentissage automatique
IA fiable
L’équité dans l’apprentissage automatique : les principes de la gouvernance
Vous voulez rester à jour sur le travail de Vector en matière de confiance et de sécurité en IA?
Joignez-vous à la liste de diffusion de Vector ici :
Nous utilisons des témoins afin de vous offrir la meilleure expérience possible sur notre site web. Si vous continuez à utiliser ce site, nous supposerons que vous en êtes satisfait.