Les chercheurs de Vector se préparent à la 33e conférence annuelle sur les systèmes de traitement neuronal de l'information (NeurIPS)

17 octobre 2019

Les chercheurs de Vector se préparent à la première conférence mondiale sur l'apprentissage automatique, la 33e conférence annuelle sur les systèmes de traitement de l'information neuronale (NeurIPS). Une conférence multi-pistes sur l'apprentissage automatique et les neurosciences computationnelles qui comprend des conférences invitées, des démonstrations, des symposiums et des présentations orales et par affiches d'articles soumis à un comité de lecture. NeurIPS 2019 se déroulera du 8 au 14 décembre au Vancouver Convention Center, à Vancouver, en Colombie-Britannique.

Cette année, les chercheurs de Vector ont obtenu un nombre impressionnant de 23 articles acceptés à la conférence. En outre, ils organisent quatre ateliers.

Lors de la conférence NeurIPS 2018, les membres du corps professoral et les étudiants de Vector ont collaboré pour remporter deux des quatre prix du meilleur article et un prix du meilleur article étudiant pour leurs recherches. Pour en savoir plus sur les réalisations de Vector lors de la conférence de l'année dernière, cliquez ici.

 

Articles acceptés par les chercheurs de Vector :

Génération efficace de graphes avec des réseaux d'attention récurrents graphiques
Renjie Liao (Université de Toronto) - Yujia Li (DeepMind) - Yang Song (Université de Stanford) - Shenlong Wang (Université de Toronto) - Will Hamilton (McGill) - David Duvenaud (Université de Toronto) - Raquel Urtasun (Uber ATG) - Richard Zemel (Vector Institute/Université de Toronto)

 

Apprentissage incrémental de quelques images à l'aide de réseaux d'attraction de l'attention
Mengye Ren (Université de Toronto / Uber ATG) - Renjie Liao (Université de Toronto) - Ethan Fetaya (Université de Toronto) - Richard Zemel (Vector Institute/Université de Toronto)

 

SMILe : Apprentissage par renforcement méta-inverse évolutif grâce à des politiques conditionnelles au contexte
Seyed Kamyar Seyed Ghasemipour (Université de Toronto, Institut Vecteur) - Shixiang (Shane) Gu (Google Brain) - Richard Zemel (Institut Vecteur/Université de Toronto)

 

Quand le lissage des étiquettes est-il utile ?
Rafael Müller (Google Brain) - Simon Kornblith (Google Brain) - Geoffrey E Hinton (Google & Université de Toronto)

 

Autoencodeurs à capsules empilées
Adam Kosiorek (Université d'Oxford) - Sara Sabour (Google) - Yee Whye Teh (Université d'Oxford, DeepMind) - Geoffrey E Hinton (Google & Université de Toronto)

 

Optimiseur Lookahead : k pas en avant, 1 pas en arrière
Michael Zhang (Université de Toronto) - James Lucas (Université de Toronto) - Jimmy Ba (Université de Toronto / Vector Institute) - Geoffrey Hinton (Google)

 

Normalisation graphique des flux
Jenny Liu (Institut Vecteur, Université de Toronto) - Aviral Kumar (UC Berkeley) - Jimmy Ba (Université de Toronto / Institut Vecteur) - Jamie Kiros (Google Inc.) - Kevin Swersky (Google)

 

Équations différentielles ordinaires latentes pour les séries temporelles à échantillonnage irrégulier
Yulia Rubanova (Université de Toronto) - Tian Qi Chen (Université de Toronto) - David Duvenaud (Université de Toronto)

 

Flux résiduels pour la modélisation générative inversible
Tian Qi Chen (Université de Toronto) - Jens Behrmann (Université de Brême) - David Duvenaud (Université de Toronto) - Joern-Henrik Jacobsen (Vector Institute)

 

Réseaux neuronaux avec des opérateurs différentiels bon marché
Tian Qi Chen (Université de Toronto) - David Duvenaud (Université de Toronto)

 

Le Runge-Kutta stochastique accélère la méthode Monte Carlo de Langevin et au-delà
Xuechen Li (Google) - Yi Wu (Université de Toronto & Vector Institute) - Lester Mackey (Microsoft Research) - Murat Erdogdu (Université de Toronto)

 

Fonction de valeur dans le domaine des fréquences et itération de la valeur caractéristique
Amir-massoud Farahmand (Institut Vecteur)

 

Apprendre à prédire les objets 3D avec un rendu différentiable basé sur l'interpolation
Wenzheng Chen (Université de Toronto) - Huan Ling (Université de Toronto, NVIDIA) - Jun Gao (Université de Toronto) - Edward Smith (Université McGill) - Jaakko Lehtinen (NVIDIA Research ; Université Aalto) - Alec Jacobson (Université de Toronto) - Sanja Fidler (Université de Toronto)

 

Convergence rapide de la descente de gradient naturelle pour les réseaux neuronaux sur-paramétrés
Guodong Zhang (Université de Toronto) - James Martens (DeepMind) - Roger Grosse (Université de Toronto)

 

Quels choix algorithmiques sont importants pour quelles tailles de lots ? Aperçu d'un modèle quadratique bruité
Guodong Zhang (Université de Toronto) - Lala Li (Google) - Zachary Nado (Google Inc.) - James Martens (DeepMind) - Sushant Sachdeva (Université de Toronto) - George Dahl (Google Brain) - Chris Shallue (Google Brain) - Roger Grosse (Université de Toronto)

 

Comprendre l'effondrement postérieur dans les autoencodeurs variationnels
James Lucas (Université de Toronto) - George Tucker (Google Brain) - Roger Grosse (Université de Toronto) - Mohammad Norouzi (Google Brain)

 

Prévention de l'atténuation du gradient dans les réseaux convolutifs soumis à des contraintes de Lipschitz
Qiyang Li (Université de Toronto) - Saminul Haque (Université de Toronto) - Cem Anil (Université de Toronto ; Institut Vecteur) - James Lucas (Université de Toronto) - Roger Grosse (Université de Toronto) - Joern-Henrik Jacobsen (Institut Vecteur)

 

MixMatch : Une approche holistique de l'apprentissage semi-supervisé
David Berthelot (Google Brain) - Nicholas Carlini (Google) - Ian Goodfellow (Google Brain) - Nicolas Papernot (Université de Toronto) - Avital Oliver (Google Brain) - Colin A Raffel (Google Brain)

 

PAC-Bayes rapide via la complexité de Rademacher décalée
Jun Yang (Université de Toronto) - Shengyang Sun (Université de Toronto) - Daniel Roy (Université de Toronto & Vecteur)

 

Limites de généralisation de la théorie de l'information pour le SGLD via des estimations dépendantes des données
Gintare Karolina Dziugaite (Element AI) - Mahdi Haghifam (Université de Toronto) - Jeffrey Negrea (Université de Toronto) - Ashish Khisti (Université de Toronto) - Daniel Roy (Université de Toronto & Vector)

 

Comprendre l'attention dans les réseaux de neurones graphiques
Boris Knyazev (Université de Guelph) - Graham W Taylor (Université de Guelph) - Mohamed R. Amer (Robust.AI)

 

L'ensemble de données Cells Out of Sample (COOS) et les points de référence pour mesurer la généralisation hors échantillon des classificateurs d'images
Alex Lu (Université de Toronto) - Amy Lu (Université de Toronto/Vector Institute) - Wiebke Schormann (Sunnybrook Research Institute) - David Andrews (Sunnybrook Research Institute) - Alan Moses (Université de Toronto)

 

Apprentissage de machines à récompenser pour l'apprentissage par renforcement partiellement observable
Rodrigo Toro Icarte (Université de Toronto et Vector Institute) - Ethan Waldie (Université de Toronto) - Toryn Klassen (Université de Toronto) - Rick Valenzano (Element AI) - Margarita Castro (Université de Toronto) - Sheila McIlraith (Université de Toronto)

 

Les chercheurs de l'Institut Vecteur organisent quatre ateliers :

 

Apprentissage automatique et sciences physiques : Organisé par Juan Felipe Carrasquilla, (Chaire canadienne CIFAR en IA, Institut Vecteur, membre de la faculté de l'Institut Vecteur et professeur adjoint, département de physique et d'astronomie, Université de Waterloo) et ses collaborateurs, cet atelier se concentre sur l'application de l'apprentissage automatique à des problèmes de physique exceptionnels. | En savoir plus

 

L'apprentissage automatique équitable dans les soins de santé: Organisé par Shalmali Joshi, post-doctorante, et Shems Saleh de l'Institut Vecteur, et leurs collaborateurs, cet atelier a pour but d'étudier les questions relatives à l'équité dans les soins de santé basés sur l'apprentissage automatique. | En savoir plus

 

Transformations de programmes pour ML : Organisé par David Duvenaud (professeur adjoint à l'Université de Toronto, co-fondateur, Invenia, Chaire de recherche du Canada en modèles génératifs et membre du corps professoral, Institut Vecteur) et ses collaborateurs. Cet atelier a pour but de présenter les transformations de programmes en ML sous un angle unifié, de rendre ces capacités plus accessibles et d'en construire de nouvelles.

 

Apprentissage automatique avec garanties : Organisé par Daniel Roy (professeur adjoint à l'Université de Toronto, membre du corps professoral de l'Institut Vecteur et titulaire de la chaire canadienne CIFAR en intelligence artificielle) et ses collaborateurs, cet atelier réunira des chercheurs qui discuteront du problème de l'obtention de garanties de performance et des algorithmes permettant de les optimiser. | En savoir plus

En savoir plus :

  • Consultez la liste complète des publications de recherche de Vector ici.

En rapport :

Des protocoles normalisés sont essentiels pour un déploiement responsable des modèles linguistiques

Les inconnues connues : Geoff Pleiss, chercheur chez Vector, se penche sur l'incertitude pour rendre les modèles de ML plus précis.

Un homme regarde un tableau blanc sur lequel sont inscrites des formules en rouge.
Perspectives
Une IA digne de confiance

Comment mettre en œuvre des systèmes d'IA en toute sécurité