Les chercheurs en vecteurs se préparent pour la 33e conférence annuelle sur les systèmes de traitement de l’information neuronale (NeurIPS)

17 octobre 2019

2019BlogueInsightsNouvellesRecherche Recherche 2019 IA Fiable

Les chercheurs en vecteurs se préparent pour la conférence mondiale de premier plan sur l’apprentissage automatique, la 33e conférence annuelle sur les systèmes de traitement de l’information neuronale (NeurIPS). Une conférence multi-pistes sur l’apprentissage automatique et les neurosciences computationnelles qui comprend des conférences invitées, des démonstrations, des symposiums ainsi que des présentations orales et par affiches d’articles évalués par des pairs. NeurIPS 2019 se déroule du 8 au 14 décembre au Vancouver Convention Center, à Vancouver, en Colombie-Britannique.

Cette année, les chercheurs de Vector ont reçu un impressionnant total de 23 articles à la conférence. De plus, ils organisent quatre ateliers.

Lors de la conférence NeurIPS de 2018, les membres du corps professoral et les étudiants de Vector ont collaboré pour remporter deux des quatre prix du meilleur article et un prix du meilleur article étudiant pour leurs recherches. Lisez-en plus sur les réalisations de Vector lors de la conférence de l’an dernier ici.

Articles acceptés par les chercheurs en Vector :

Génération efficace de graphes avec réseaux d’attention récurrents de graphes

Renjie Liao (Université de Toronto) · Yujia Li (DeepMind) · Yang Song (Université Stanford) · Shenlong Wang (Université de Toronto) · Will Hamilton (McGill) · David Duvenaud (Université de Toronto) · Raquel Urtasun (Uber ATG) · Richard Zemel (Institut Vector/Université de Toronto)

Apprentissage incrémental de quelques coups avec réseaux attirant l’attention

Mengye Ren (Université de Toronto / Uber ATG) · Renjie Liao (Université de Toronto) · Ethan Fetaya (Université de Toronto) · Richard Zemel (Institut Vector/Université de Toronto)

SMILe : apprentissage par renforcement méta inverse évolutif via des politiques conditionnelles au contexte

Seyed Kamyar Seyed Ghasemipour (Université de Toronto, Vector Institute) · Shixiang (Shane) Gu (Google Brain) · Richard Zemel (Institut Vector/Université de Toronto)

Quand est-ce que le lissage des étiquettes aide?

Rafael Müller (Google Brain) · Simon Kornblith (Google Brain) · Geoffrey E. Hinton (Google & Université de Toronto)

Autoencodeurs de capsules empilées

Adam Kosiorek (Université d’Oxford) · Sara Sabour (Google) · Yee Whye Teh (Université d’Oxford, DeepMind) · Geoffrey E. Hinton (Google & Université de Toronto)

Optimiseur d’anticipation : k pas en avant, 1 pas en arrière

Michael Zhang (Université de Toronto) · James Lucas (Université de Toronto) · Jimmy Ba (Université de Toronto / Institut Vector) · Geoffrey Hinton (Google)

Normalisation des flux de graphes

Jenny Liu (Institut Vector, Université de Toronto) · Aviral Kumar (UC Berkeley) · Jimmy Ba (Université de Toronto / Institut Vector) · Jamie Kiros (Google Inc.) · Kevin Swersky (Google)

Équations différentielles ordinaires latentes pour des séries temporelles à échantillonnage irrégulier

Yulia Rubanova (Université de Toronto) · Tian Qi Chen (Université de Toronto) · David Duvenaud (Université de Toronto)

Écoulements résiduels pour la modélisation générative inversible

Tian Qi Chen (Université de Toronto) · Jens Behrmann (Université de Brême) · David Duvenaud (Université de Toronto) · Joern-Henrik Jacobsen (Institut Vector)

Réseaux de neurones avec opérateurs différentiels bon marché

Tian Qi Chen (Université de Toronto) · David Duvenaud (Université de Toronto)

La Runge-Kutta stochastique accélère Langevin Monte-Carlo et au-delà

Xuechen Li (Google) · Yi Wu (Université de Toronto & Institut des Vecteurs) · Lester Mackey (Microsoft Research) · Murat Erdogdu (Université de Toronto)

Fonction de valeur dans le domaine fréquentiel et itération de valeurs caractéristiques

Amir-Massoud Farahmand (Institut des Vecteurs)

Apprendre à prédire des objets 3D avec un moteur de rendu différentiable basé sur l’interpolation

Wenzheng Chen (Université de Toronto) · Huan Ling (Université de Toronto, NVIDIA) · Jun Gao (Université de Toronto) · Edward Smith (Université McGill) · Jaakko Lehtinen (Recherche NVIDIA; Université Aalto) · Alec Jacobson (Université de Toronto) · Sanja Fidler (Université de Toronto)

Convergence rapide de la descente naturelle du gradient pour les réseaux neuronaux surparamétrés

Guodong Zhang (Université de Toronto) · James Martens (DeepMind) · Roger Grosse (Université de Toronto)

Quels choix algorithmiques comptent à quelle taille de lot? Perspectives tirées d’un modèle quadratique bruyant

Guodong Zhang (Université de Toronto) · Lala Li (Google) · Zachary Nado (Google Inc.) · James Martens (DeepMind) · Sushant Sachdeva (Université de Toronto) · George Dahl (Google Brain) · Chris Shallue (Google Brain) · Roger Grosse (Université de Toronto)

Comprendre l’effondrement postérieur dans les autoencodeurs variationnels

James Lucas (Université de Toronto) · George Tucker (Google Brain) · Roger Grosse (Université de Toronto) · Mohammad Norouzi (Google Brain)

Prévenir l’atténuation du gradient dans les réseaux convolutionnels contraints de Lipschitz

Qiyang Li (Université de Toronto) · Saminul Haque (Université de Toronto) · Cem Anil (Université de Toronto; Vector Institute) · James Lucas (Université de Toronto) · Roger Grosse (Université de Toronto) · Joern-Henrik Jacobsen (Institut Vector)

MixMatch : une approche holistique de l’apprentissage semi-supervisé

David Berthelot (Google Brain) · Nicholas Carlini (Google) · Ian Goodfellow (Google Brain) · Nicolas Papernot (Université de Toronto) · Avital Oliver (Google Brain) · Colin A Raffel (Google Brain)

PAC-Bayes rapides via complexité Rademacher décalée

Jun Yang (Université de Toronto) · Shengyang Sun (Université de Toronto) · Daniel Roy (Université de Toronto & Vector)

Limites de généralisation en théorie de l’information pour SGLD via estimations dépendantes des données

Gintare Karolina Dziugaite (Element AI) · Mahdi Haghifam (Université de Toronto) · Jeffrey Negrea (Université de Toronto) · Ashish Khisti (Université de Toronto) · Daniel Roy (Université de Toronto & Vector)

Comprendre l’attention dans les réseaux neuronaux à graphes

Boris Knyazev (Université de Guelph) · Graham W Taylor (Université de Guelph) · Mohamed R. Amer (Robust.AI)

Le jeu de données Cells Out of Sample (COOS) et les références pour mesurer la généralisation hors échantillon des classificateurs d’images

Alex Lu (Université de Toronto) · Amy Lu (Université de Toronto/Vector Institute) · Wiebke Schormann (Institut de recherche Sunnybrook) · David Andrews (Institut de recherche Sunnybrook) · Alan Moses (Université de Toronto)

Machines de récompense d’apprentissage pour l’apprentissage par renforcement partiellement observable

Rodrigo Toro Icarte (Université de Toronto et Vector Institute) · Ethan Waldie (Université de Toronto) · Toryn Klassen (Université de Toronto) · Rick Valenzano (Element AI) · Margarita Castro (Université de Toronto) · Sheila McIlraith (Université de Toronto)

Les chercheurs de l’Institut Vector organisent quatre ateliers :

Apprentissage automatique et sciences physiques : Organisé par Juan Felipe Carrasquilla (titulaire de la chaire CIFAR Canada IA, Vector Institute, membre du corps professoral de l’Institut Vector et professeur adjoint (chargé de cours), Département de physique et d’astronomie de l’Université de Waterloo, ainsi que collaborateurs, cet atelier vise à appliquer l’apprentissage automatique à des problèmes de physique majeurs.

En savoir plus.

Fair ML in Healthcare : Organisé par Shalmali Joshi, boursière postdoctorale, et Shems Saleh à l’Institut Vector, et qui collabore à cet atelier, l’objectif de cet atelier est d’explorer les enjeux d’équité dans les soins de santé basés sur l’apprentissage automatique.

En savoir plus.

Transformations de programmes pour l’apprentissage automatique : Organisé par David Duvenaud (professeur adjoint à l’Université de Toronto, cofondateur, Chaire de recherche Invenia, Canada en modèles génératifs et membre du corps professoral du Vector Institute) et ses collaborateurs.  Cet atelier vise à voir les transformations de programmes en apprentissage automatique sous un jour unifié, à rendre ces capacités plus accessibles et à en créer de toutes nouvelles

En savoir plus.

Apprentissage automatique avec garanties : Organisé par Daniel Roy (professeur adjoint à l’Université de Toronto, membre du corps professoral du Vector Institute et titulaire de la chaire d’intelligence artificielle au Canada CIFAR) et ses collaborateurs, cet atelier réunira des chercheurs pour discuter du problème de l’obtention de garanties de performance et d’algorithmes pour les optimiser.

En savoir plus.

Consultez la liste complète des publications de recherche sur les vecteurs ici.

À lire aussi :

2026
Réflexions
Recherche
Recherche 2026

La nouvelle cartographie de l’invisible

Les femmes écrivent sur un tableau blanc. Il y a un homme à sa gauche qui regarde le tableau.
2025
Recherche
Recherche 2025

Les chercheurs en vecteurs font avancer les frontières de l’IA avec 80 articles au NeurIPS 2025

Logo vectoriel
2025
Réflexions

Une nouvelle étude révèle l’impact économique de 100 milliards de dollars de l’IA à travers le Canada, avec l’Ontario en tête