Les chercheurs en vecteurs se préparent pour la 33e conférence annuelle sur les systèmes de traitement de l’information neuronale (NeurIPS)
17 octobre 2019
17 octobre 2019
Les chercheurs en vecteurs se préparent pour la conférence mondiale de premier plan sur l’apprentissage automatique, la 33e conférence annuelle sur les systèmes de traitement de l’information neuronale (NeurIPS). Une conférence multi-pistes sur l’apprentissage automatique et les neurosciences computationnelles qui comprend des conférences invitées, des démonstrations, des symposiums ainsi que des présentations orales et par affiches d’articles évalués par des pairs. NeurIPS 2019 se déroule du 8 au 14 décembre au Vancouver Convention Center, à Vancouver, en Colombie-Britannique.
Cette année, les chercheurs de Vector ont reçu un impressionnant total de 23 articles à la conférence. De plus, ils organisent quatre ateliers.
Lors de la conférence NeurIPS de 2018, les membres du corps professoral et les étudiants de Vector ont collaboré pour remporter deux des quatre prix du meilleur article et un prix du meilleur article étudiant pour leurs recherches. Lisez-en plus sur les réalisations de Vector lors de la conférence de l’an dernier ici.
Génération efficace de graphes avec réseaux d’attention récurrents de graphes
Renjie Liao (Université de Toronto) · Yujia Li (DeepMind) · Yang Song (Université Stanford) · Shenlong Wang (Université de Toronto) · Will Hamilton (McGill) · David Duvenaud (Université de Toronto) · Raquel Urtasun (Uber ATG) · Richard Zemel (Institut Vector/Université de Toronto)
Apprentissage incrémental de quelques coups avec réseaux attirant l’attention
Mengye Ren (Université de Toronto / Uber ATG) · Renjie Liao (Université de Toronto) · Ethan Fetaya (Université de Toronto) · Richard Zemel (Institut Vector/Université de Toronto)
SMILe : apprentissage par renforcement méta inverse évolutif via des politiques conditionnelles au contexte
Seyed Kamyar Seyed Ghasemipour (Université de Toronto, Vector Institute) · Shixiang (Shane) Gu (Google Brain) · Richard Zemel (Institut Vector/Université de Toronto)
Quand est-ce que le lissage des étiquettes aide?
Rafael Müller (Google Brain) · Simon Kornblith (Google Brain) · Geoffrey E. Hinton (Google & Université de Toronto)
Autoencodeurs de capsules empilées
Adam Kosiorek (Université d’Oxford) · Sara Sabour (Google) · Yee Whye Teh (Université d’Oxford, DeepMind) · Geoffrey E. Hinton (Google & Université de Toronto)
Optimiseur d’anticipation : k pas en avant, 1 pas en arrière
Michael Zhang (Université de Toronto) · James Lucas (Université de Toronto) · Jimmy Ba (Université de Toronto / Institut Vector) · Geoffrey Hinton (Google)
Normalisation des flux de graphes
Jenny Liu (Institut Vector, Université de Toronto) · Aviral Kumar (UC Berkeley) · Jimmy Ba (Université de Toronto / Institut Vector) · Jamie Kiros (Google Inc.) · Kevin Swersky (Google)
Équations différentielles ordinaires latentes pour des séries temporelles à échantillonnage irrégulier
Yulia Rubanova (Université de Toronto) · Tian Qi Chen (Université de Toronto) · David Duvenaud (Université de Toronto)
Écoulements résiduels pour la modélisation générative inversible
Tian Qi Chen (Université de Toronto) · Jens Behrmann (Université de Brême) · David Duvenaud (Université de Toronto) · Joern-Henrik Jacobsen (Institut Vector)
Réseaux de neurones avec opérateurs différentiels bon marché
Tian Qi Chen (Université de Toronto) · David Duvenaud (Université de Toronto)
La Runge-Kutta stochastique accélère Langevin Monte-Carlo et au-delà
Xuechen Li (Google) · Yi Wu (Université de Toronto & Institut des Vecteurs) · Lester Mackey (Microsoft Research) · Murat Erdogdu (Université de Toronto)
Fonction de valeur dans le domaine fréquentiel et itération de valeurs caractéristiques
Amir-Massoud Farahmand (Institut des Vecteurs)
Apprendre à prédire des objets 3D avec un moteur de rendu différentiable basé sur l’interpolation
Wenzheng Chen (Université de Toronto) · Huan Ling (Université de Toronto, NVIDIA) · Jun Gao (Université de Toronto) · Edward Smith (Université McGill) · Jaakko Lehtinen (Recherche NVIDIA; Université Aalto) · Alec Jacobson (Université de Toronto) · Sanja Fidler (Université de Toronto)
Convergence rapide de la descente naturelle du gradient pour les réseaux neuronaux surparamétrés
Guodong Zhang (Université de Toronto) · James Martens (DeepMind) · Roger Grosse (Université de Toronto)
Quels choix algorithmiques comptent à quelle taille de lot? Perspectives tirées d’un modèle quadratique bruyant
Guodong Zhang (Université de Toronto) · Lala Li (Google) · Zachary Nado (Google Inc.) · James Martens (DeepMind) · Sushant Sachdeva (Université de Toronto) · George Dahl (Google Brain) · Chris Shallue (Google Brain) · Roger Grosse (Université de Toronto)
Comprendre l’effondrement postérieur dans les autoencodeurs variationnels
James Lucas (Université de Toronto) · George Tucker (Google Brain) · Roger Grosse (Université de Toronto) · Mohammad Norouzi (Google Brain)
Prévenir l’atténuation du gradient dans les réseaux convolutionnels contraints de Lipschitz
Qiyang Li (Université de Toronto) · Saminul Haque (Université de Toronto) · Cem Anil (Université de Toronto; Vector Institute) · James Lucas (Université de Toronto) · Roger Grosse (Université de Toronto) · Joern-Henrik Jacobsen (Institut Vector)
MixMatch : une approche holistique de l’apprentissage semi-supervisé
David Berthelot (Google Brain) · Nicholas Carlini (Google) · Ian Goodfellow (Google Brain) · Nicolas Papernot (Université de Toronto) · Avital Oliver (Google Brain) · Colin A Raffel (Google Brain)
PAC-Bayes rapides via complexité Rademacher décalée
Jun Yang (Université de Toronto) · Shengyang Sun (Université de Toronto) · Daniel Roy (Université de Toronto & Vector)
Limites de généralisation en théorie de l’information pour SGLD via estimations dépendantes des données
Gintare Karolina Dziugaite (Element AI) · Mahdi Haghifam (Université de Toronto) · Jeffrey Negrea (Université de Toronto) · Ashish Khisti (Université de Toronto) · Daniel Roy (Université de Toronto & Vector)
Comprendre l’attention dans les réseaux neuronaux à graphes
Boris Knyazev (Université de Guelph) · Graham W Taylor (Université de Guelph) · Mohamed R. Amer (Robust.AI)
Le jeu de données Cells Out of Sample (COOS) et les références pour mesurer la généralisation hors échantillon des classificateurs d’images
Alex Lu (Université de Toronto) · Amy Lu (Université de Toronto/Vector Institute) · Wiebke Schormann (Institut de recherche Sunnybrook) · David Andrews (Institut de recherche Sunnybrook) · Alan Moses (Université de Toronto)
Machines de récompense d’apprentissage pour l’apprentissage par renforcement partiellement observable
Rodrigo Toro Icarte (Université de Toronto et Vector Institute) · Ethan Waldie (Université de Toronto) · Toryn Klassen (Université de Toronto) · Rick Valenzano (Element AI) · Margarita Castro (Université de Toronto) · Sheila McIlraith (Université de Toronto)
Apprentissage automatique et sciences physiques : Organisé par Juan Felipe Carrasquilla (titulaire de la chaire CIFAR Canada IA, Vector Institute, membre du corps professoral de l’Institut Vector et professeur adjoint (chargé de cours), Département de physique et d’astronomie de l’Université de Waterloo, ainsi que collaborateurs, cet atelier vise à appliquer l’apprentissage automatique à des problèmes de physique majeurs.
Fair ML in Healthcare : Organisé par Shalmali Joshi, boursière postdoctorale, et Shems Saleh à l’Institut Vector, et qui collabore à cet atelier, l’objectif de cet atelier est d’explorer les enjeux d’équité dans les soins de santé basés sur l’apprentissage automatique.
Transformations de programmes pour l’apprentissage automatique : Organisé par David Duvenaud (professeur adjoint à l’Université de Toronto, cofondateur, Chaire de recherche Invenia, Canada en modèles génératifs et membre du corps professoral du Vector Institute) et ses collaborateurs. Cet atelier vise à voir les transformations de programmes en apprentissage automatique sous un jour unifié, à rendre ces capacités plus accessibles et à en créer de toutes nouvelles
Apprentissage automatique avec garanties : Organisé par Daniel Roy (professeur adjoint à l’Université de Toronto, membre du corps professoral du Vector Institute et titulaire de la chaire d’intelligence artificielle au Canada CIFAR) et ses collaborateurs, cet atelier réunira des chercheurs pour discuter du problème de l’obtention de garanties de performance et d’algorithmes pour les optimiser.
Consultez la liste complète des publications de recherche sur les vecteurs ici.