Recherche sur la confiance et la sécurité de l’IA
Faire progresser la confiance de l’IA et
Dialogue sur la sécurité
Les chercheurs de classe mondiale de Vector abordent à la fois les risques à court terme et existentiels en matière de vie privée et de sécurité, d’équité algorithmique, de robustesse des modèles, d’alignement de l’IA et de gouvernance des AGI afin de s’assurer que les systèmes d’IA sont conçus pour atteindre les résultats souhaités et atténuer les risques catastrophiques.
En plus de promouvoir publiquement les dialogues sur la confiance et la sécurité de l’IA, nous offrons de la formation aux chercheurs par l’entremise d’un groupe de lecture sur la sécurité de l’IA dirigé par Toryn Klassen, Sheila McIlraith et Michael Zhang, et nous avons un groupe de travail sur la confiance et la sécurité de l’IA composé des meilleurs chercheurs mondiaux dans ce domaine.
Explorez nos domaines de recherche, publications et profils de chercheurs

Nicolas Papernot met l’accent sur des techniques de préservation de la vie privée dans l’apprentissage profond et sur l’avancement de modèles d’apprentissage automatique plus sécurisés et fiables.

Les recherches de Sheila McIlraith portent sur la prise de décision séquentielle par IA compatible avec les humains, en mettant l’accent sur la sécurité, l’alignement et l’équité.

Les recherches de Jeff Clune sur la sécurité de l’IA portent sur les recommandations réglementaires, l’amélioration de l’interprétabilité des agents (afin que nous puissions savoir ce qu’ils prévoient de faire, pourquoi, et prévenir les comportements dangereux).

Les recherches de David Duvenaud portent sur la gouvernance, l’évaluation et l’atténuation des risques catastrophiques liés aux systèmes futurs.

Gillian Hadfield étudie la gouvernance de l’IA en travaillant à l’intersection des infrastructures techniques et réglementaires afin de s’assurer que les systèmes d’IA favorisent le bien-être humain.

Les recherches de Roger Grosse examinent les dynamiques d’entraînement en apprentissage profond. Il applique son expertise à l’alignement de l’IA afin de s’assurer que le progrès de l’IA soit aligné avec les valeurs humaines.
Explorez les perspectives de la recherche vectorielle
Benchmarking du Grok-1 de xAI
ICLR 2021 : Les chercheurs adoptent des astuces pédagogiques pour entraîner les réseaux de neurones comme s’ils étaient des étudiants
La quête du nouveau membre du corps professoral de Vector, Jeff Clune, pour créer des systèmes d’IA ouverts
Vous voulez rester à jour sur le travail de Vector en matière de confiance et de sécurité en IA?
Joignez-vous à la liste de diffusion de Vector ici :