Les chercheurs de Vector se préparent à la 33e conférence annuelle sur les systèmes de traitement neuronal de l'information (NeurIPS)

17 octobre 2019

2019 Blog Perspectives Actualités Recherche Recherche 2019 Une IA digne de confiance

Les chercheurs de Vector se préparent à la première conférence mondiale sur l'apprentissage automatique, la 33e conférence annuelle sur les systèmes de traitement de l'information neuronale (NeurIPS). Une conférence multi-pistes sur l'apprentissage automatique et les neurosciences computationnelles qui comprend des conférences invitées, des démonstrations, des symposiums et des présentations orales et affichées d'articles soumis à un comité de lecture. NeurIPS 2019 se déroulera du 8 au 14 décembre au Vancouver Convention Center, à Vancouver, en Colombie-Britannique.

Cette année, les chercheurs de Vector ont obtenu un nombre impressionnant de 23 articles acceptés à la conférence. En outre, ils organisent quatre ateliers.

Lors de la conférence NeurIPS 2018, les membres du corps professoral et les étudiants de Vector ont collaboré pour remporter deux des quatre prix du meilleur article et un prix du meilleur article étudiant pour leurs recherches. Pour en savoir plus sur les réalisations de Vector lors de la conférence de l'année dernière , cliquez ici.

Articles acceptés par les chercheurs de Vector :

Génération efficace de graphes avec des réseaux d'attention récurrents graphiques

Renjie Liao (Université de Toronto) - Yujia Li (DeepMind) - Yang Song (Université de Stanford) - Shenlong Wang (Université de Toronto) - Will Hamilton (McGill) - David Duvenaud (Université de Toronto) - Raquel Urtasun (Uber ATG) - Richard Zemel (Vector Institute/Université de Toronto)

Apprentissage incrémental à l'aide de réseaux d'attraction de l'attention

Mengye Ren (Université de Toronto / Uber ATG) - Renjie Liao (Université de Toronto) - Ethan Fetaya (Université de Toronto) - Richard Zemel (Vector Institute/Université de Toronto)

SMILe : Apprentissage par renforcement méta-inverse évolutif grâce à des politiques conditionnelles au contexte

Seyed Kamyar Seyed Ghasemipour (Université de Toronto, Institut Vecteur) - Shixiang (Shane) Gu (Google Brain) - Richard Zemel (Institut Vecteur/Université de Toronto)

Quand le lissage des étiquettes est-il utile ?

Rafael Müller (Google Brain) - Simon Kornblith (Google Brain) - Geoffrey E Hinton (Google & Université de Toronto)

Auto-codeurs à capsules empilées

Adam Kosiorek (Université d'Oxford) - Sara Sabour (Google) - Yee Whye Teh (Université d'Oxford, DeepMind) - Geoffrey E Hinton (Google et Université de Toronto)

Optimiseur Lookahead : k pas en avant, 1 pas en arrière

Michael Zhang (Université de Toronto) - James Lucas (Université de Toronto) - Jimmy Ba (Université de Toronto / Vector Institute) - Geoffrey Hinton (Google)

Normalisation graphique des flux

Jenny Liu (Vector Institute, Université de Toronto) - Aviral Kumar (UC Berkeley) - Jimmy Ba (Université de Toronto / Vector Institute) - Jamie Kiros (Google Inc.) - Kevin Swersky (Google)

Équations différentielles ordinaires latentes pour les séries temporelles à échantillonnage irrégulier

Yulia Rubanova (Université de Toronto) - Tian Qi Chen (Université de Toronto) - David Duvenaud (Université de Toronto)

Flux résiduels pour la modélisation générative inversible

Tian Qi Chen (Université de Toronto) - Jens Behrmann (Université de Brême) - David Duvenaud (Université de Toronto) - Joern-Henrik Jacobsen (Vector Institute)

Réseaux neuronaux avec opérateurs différentiels bon marché

Tian Qi Chen (Université de Toronto) - David Duvenaud (Université de Toronto)

Runge-Kutta stochastique accélère Langevin Monte Carlo et au-delà

Xuechen Li (Google) - Yi Wu (Université de Toronto & Vector Institute) - Lester Mackey (Microsoft Research) - Murat Erdogdu (Université de Toronto)

Fonction de valeur dans le domaine des fréquences et itération de la valeur caractéristique

Amir-massoud Farahmand (Institut Vecteur)

Apprendre à prédire les objets 3D avec un moteur de rendu différentiable basé sur l'interpolation

Wenzheng Chen (Université de Toronto) - Huan Ling (Université de Toronto, NVIDIA) - Jun Gao (Université de Toronto) - Edward Smith (Université McGill) - Jaakko Lehtinen (NVIDIA Research ; Université Aalto) - Alec Jacobson (Université de Toronto) - Sanja Fidler (Université de Toronto)

Convergence rapide de la descente naturelle du gradient pour les réseaux neuronaux sur-paramétrés

Guodong Zhang (Université de Toronto) - James Martens (DeepMind) - Roger Grosse (Université de Toronto)

Quels choix algorithmiques sont importants pour quelles tailles de lots ? Aperçu d'un modèle quadratique bruité

Guodong Zhang (Université de Toronto) - Lala Li (Google) - Zachary Nado (Google Inc.) - James Martens (DeepMind) - Sushant Sachdeva (Université de Toronto) - George Dahl (Google Brain) - Chris Shallue (Google Brain) - Roger Grosse (Université de Toronto)

Comprendre l'effondrement postérieur dans les autoencodeurs variationnels

James Lucas (Université de Toronto) - George Tucker (Google Brain) - Roger Grosse (Université de Toronto) - Mohammad Norouzi (Google Brain)

Prévention de l'atténuation du gradient dans les réseaux convolutionnels soumis à des contraintes de Lipschitz

Qiyang Li (Université de Toronto) - Saminul Haque (Université de Toronto) - Cem Anil (Université de Toronto ; Institut Vecteur) - James Lucas (Université de Toronto) - Roger Grosse (Université de Toronto) - Joern-Henrik Jacobsen (Institut Vecteur)

MixMatch : Une approche holistique de l'apprentissage semi-supervisé

David Berthelot (Google Brain) - Nicholas Carlini (Google) - Ian Goodfellow (Google Brain) - Nicolas Papernot (Université de Toronto) - Avital Oliver (Google Brain) - Colin A Raffel (Google Brain)

PAC-Bayes rapide via la complexité de Rademacher décalée

Jun Yang (Université de Toronto) - Shengyang Sun (Université de Toronto) - Daniel Roy (Université de Toronto et Vector)

Limites de généralisation de la théorie de l'information pour le SGLD par le biais d'estimations dépendantes des données

Gintare Karolina Dziugaite (Element AI) - Mahdi Haghifam (Université de Toronto) - Jeffrey Negrea (Université de Toronto) - Ashish Khisti (Université de Toronto) - Daniel Roy (Université de Toronto & Vector)

Comprendre l'attention dans les réseaux neuronaux graphiques

Boris Knyazev (Université de Guelph) - Graham W Taylor (Université de Guelph) - Mohamed R. Amer (Robust.AI)

L'ensemble de données COOS (Cells Out of Sample) et les points de référence pour mesurer la généralisation hors échantillon des classificateurs d'images

Alex Lu (Université de Toronto) - Amy Lu (Université de Toronto/Vector Institute) - Wiebke Schormann (Sunnybrook Research Institute) - David Andrews (Sunnybrook Research Institute) - Alan Moses (Université de Toronto)

Apprentissage de machines à récompenser pour l'apprentissage par renforcement partiellement observable

Rodrigo Toro Icarte (Université de Toronto et Vector Institute) - Ethan Waldie (Université de Toronto) - Toryn Klassen (Université de Toronto) - Rick Valenzano (Element AI) - Margarita Castro (Université de Toronto) - Sheila McIlraith (Université de Toronto)

Les chercheurs de l'Institut Vecteur organisent quatre ateliers :

Apprentissage automatique et sciences physiques : Organisé par Juan Felipe Carrasquilla, (Chaire canadienne CIFAR en IA, Institut Vecteur, membre de la faculté de l'Institut Vecteur et professeur adjoint, département de physique et d'astronomie, Université de Waterloo) et ses collaborateurs, cet atelier se concentre sur l'application de l'apprentissage automatique à des problèmes de physique exceptionnels.

En savoir plus.

L'apprentissage automatique équitable dans les soins de santé: Organisé par Shalmali Joshi, post-doctorante, et Shems Saleh de l'Institut Vecteur, ainsi que par leurs collaborateurs, cet atelier a pour but d'étudier les questions relatives à l'équité dans les soins de santé basés sur l'apprentissage automatique.

En savoir plus.

Transformations de programmes pour le ML : Organisé par David Duvenaud (professeur adjoint à l'Université de Toronto, co-fondateur, Invenia, Chaire de recherche du Canada en modèles génératifs et membre du corps professoral, Institut Vecteur) et ses collaborateurs. Cet atelier vise à présenter les transformations de programmes en ML sous un angle unifié, à rendre ces capacités plus accessibles et à en créer de nouvelles.

En savoir plus.

Apprentissage automatique avec garanties : Organisé par Daniel Roy (professeur adjoint à l'Université de Toronto, membre du corps professoral de l'Institut Vecteur et titulaire de la chaire canadienne CIFAR en intelligence artificielle) et ses collaborateurs, cet atelier réunira des chercheurs qui discuteront du problème de l'obtention de garanties de performance et des algorithmes permettant de les optimiser.

En savoir plus.

Consultez la liste complète des publications de recherche de Vector ici.

En rapport :

Des femmes écrivent sur un tableau blanc. Un homme à sa gauche regarde le tableau.
2025
Recherche
Recherche 2025

Les chercheurs de Vector se plongent dans l'apprentissage profond à l'occasion de l'ICLR 2025

2025
Ingénierie de l'IA
Actualités
Recherche
Recherche 2025

Quand l'IA rencontre l'humain : Évaluer les modèles multimodaux à travers une lentille centrée sur l'humain - Présentation de HumaniBench

2025
Perspectives
Partenariat
Histoires de réussite

Pourquoi le partenariat entre le leader des services bancaires d'IA, la CIBC, et l'Institut Vecteur continue de se développer