Recherche sur la confiance et la sécurité en matière d'IA

Faire progresser le dialogue sur la confiance et la
sécurité
Les chercheurs de classe mondiale de Vector s'intéressent aux risques à court terme et aux risques existentiels en matière de protection de la vie privée et de sécurité, d'équité algorithmique, de robustesse des modèles, d'alignement de l'IA et de gouvernance de l'AGI, afin de garantir que les systèmes d'IA sont conçus pour atteindre les résultats souhaités et pour atténuer les risques catastrophiques.
En plus de faire progresser le dialogue public sur la confiance et la sécurité dans l'IA, nous assurons la formation des chercheurs par l'intermédiaire d'un groupe de lecture sur la sécurité dans l'IA dirigé par Toryn Klassen, Sheila McIlraith et Michael Zhang, et nous disposons d'un groupe de travail sur la confiance et la sécurité dans l'IA composé des plus grands chercheurs mondiaux dans ce domaine.
Découvrez nos domaines de recherche, nos publications et les profils de nos chercheurs.

Nicolas Papernot se concentre sur les techniques de préservation de la vie privée dans l'apprentissage profond, et sur l'avancement de modèles d'apprentissage automatique plus sûrs et fiables.

Les recherches de Sheila McIlraithportent sur la prise de décision séquentielle par l'IA compatible avec l'être humain, en mettant l'accent sur la sécurité, l'alignement et l'équité.

Les recherches de Jeff Clunesur la sécurité de l'IA se concentrent sur les recommandations réglementaires, l'amélioration de l'interprétabilité des agents (afin que nous puissions savoir ce qu'ils prévoient de faire, pourquoi, et prévenir les comportements dangereux).

Les recherches de David Duvenaudportent sur la gouvernance et l'évaluation de l'AGI, ainsi que sur l'atténuation des risques catastrophiques liés aux systèmes futurs.

Gillian Hadfield s'intéresse à la gouvernance de l'IA et travaille à l'intersection des infrastructures techniques et réglementaires pour s'assurer que les systèmes d'IA favorisent le bien-être humain.

Les recherches de Roger Grosse portent sur les dynamiques de formation dans l'apprentissage profond. Il applique son expertise à l'alignement de l'IA, afin de s'assurer que les progrès de l'IA sont alignés sur les valeurs humaines.
Explorer les perspectives de la recherche vectorielle

Évaluation comparative de Grok-1 de xAI

ICLR 2021 : Des chercheurs adoptent des astuces pédagogiques pour former des réseaux neuronaux comme s'ils étaient des étudiants

Jeff Clune, nouveau membre de la faculté Vector, cherche à créer des systèmes d'intelligence artificielle ouverts.
Vous souhaitez vous tenir au courant des travaux de Vector en matière de confiance et de sécurité de l'IA ?
Rejoignez la liste de diffusion de Vector ici :