Recherche sur la confiance et la sécurité en matière d'IA

Découvrez nos domaines de recherche, nos publications et les profils de nos chercheurs.

Nicolas Papernot se concentre sur les techniques de préservation de la vie privée dans l'apprentissage profond, et sur l'avancement de modèles d'apprentissage automatique plus sûrs et fiables.

Les recherches de Sheila McIlraithportent sur la prise de décision séquentielle par l'IA compatible avec l'être humain, en mettant l'accent sur la sécurité, l'alignement et l'équité.

Les recherches de Jeff Clunesur la sécurité de l'IA se concentrent sur les recommandations réglementaires, l'amélioration de l'interprétabilité des agents (afin que nous puissions savoir ce qu'ils prévoient de faire, pourquoi, et prévenir les comportements dangereux).

Les recherches de David Duvenaudportent sur la gouvernance et l'évaluation de l'AGI, ainsi que sur l'atténuation des risques catastrophiques liés aux systèmes futurs.

Gillian Hadfield s'intéresse à la gouvernance de l'IA et travaille à l'intersection des infrastructures techniques et réglementaires pour s'assurer que les systèmes d'IA favorisent le bien-être humain.

Les recherches de Roger Grosse portent sur les dynamiques de formation dans l'apprentissage profond. Il applique son expertise à l'alignement de l'IA, afin de s'assurer que les progrès de l'IA sont alignés sur les valeurs humaines.

Avec qui travaillons-nous dans le cadre de la confiance et de la sécurité de l'IA ?

Explorer les perspectives de la recherche vectorielle

Trois personnes regardent fixement un ordinateur portable portant un logo Vector.

Évaluation comparative de Grok-1 de xAI

Code graphique

ICLR 2021 : Des chercheurs adoptent des astuces pédagogiques pour former des réseaux neuronaux comme s'ils étaient des étudiants

Une personne posée, aux cheveux châtain clair, portant une chemise à carreaux moderne, se tient avec assurance sur un fond de bureau à la mise au point douce. Son attitude reflète l'esprit d'innovation et le professionnalisme que l'on attend de ceux qui sont à la pointe de la technologie et de la recherche. L'image illustre un mélange d'intelligence accessible et d'ambition avant-gardiste.

Jeff Clune, nouveau membre de la faculté Vector, cherche à créer des systèmes d'intelligence artificielle ouverts.

Vous souhaitez vous tenir au courant des travaux de Vector en matière de confiance et de sécurité de l'IA ?

Rejoignez la liste de diffusion de Vector ici :