Notre communauté de recherche reconnue fait avancer des percées dans la science et l’application de l’IA. De l’utilisation de l’informatique quantique pour faire face aux changements climatiques, au développement de nouveaux modèles d’apprentissage automatique pour des applications 3D, en passant par l’utilisation de l’IA pour améliorer la prévision des prix alimentaires, et plus encore, les chercheurs de Vector dévoilent de nouvelles façons d’appliquer l’IA pour améliorer les résultats économiques, sanitaires et sociétaux.

Nos priorités stratégiques de recherche

  • Apprentissage automatique
  • Apprentissage profond
  • IA pour la science
  • IA fiable
  • IA pour la santé
  • Modèles de fondation

Vector poursuit son objectif de devenir l’un des 10 meilleurs centres mondiaux de recherche en IA en attirant les chercheurs les plus accomplis, ambitieux et innovants au monde, qui débloquent de nouvelles réalisations dans un large éventail de sujets liés à l’IA et à l’apprentissage automatique.

962 membres de la communauté de recherche sur les vecteurs, comprenant :

47
Membres du corps professoral
44
Chaires d’IA du CIFAR au Canada
140
Faculté affiliées
51
Boursiers postdoctoraux
649
Chercheurs diplômés
75
Étudiants de premier cycle

Notre équipe de recherche grandissante

Ce qui n’était autrefois que quelques professeurs fondateurs s’est transformé au cours des cinq dernières années en une communauté florissante de plus de 700 chercheurs qui repoussent les limites de l’IA, de l’apprentissage automatique et de l’apprentissage profond dans des domaines critiques au bénéfice des Ontariens, des Canadiens et des gens du monde entier.

Rencontrez l’équipe de recherche

Nous stimulons cette croissance par des efforts nouveaux et croissants pour attirer et développer une communauté exceptionnelle

  • Favoriser la collaboration entre l’industrie et le milieu universitaire afin de relier la recherche de pointe et les applications de l’IA.
  • Créer davantage de façons pour les chercheurs de collaborer avec des commanditaires industriels et des partenaires du secteur de la santé sur des problèmes concrets et des ensembles de données novateurs.
  • Élargir l’accès à des événements axés sur la recherche et les candidatures et accroître l’accès aux stages.
Vered Shwartz présentant

Recherches publiées

À travers des dizaines de projets et de thèmes de travail actuels, d’actualité mondiale et d’impact, ces chercheurs découvrent de nouvelles façons d’appliquer l’IA pour améliorer les résultats économiques, sanitaires et sociétaux.

Parcourir les publications

Dernières nouvelles de recherche

Les femmes écrivent sur un tableau blanc. Il y a un homme à sa gauche qui regarde le tableau.

Les chercheurs en vecteurs font avancer les frontières de l’IA avec 80 articles au NeurIPS 2025

Quand l’IA intelligente devient trop intelligente : Principaux enseignements de l’atelier 2025 sur la sécurité et la vie privée en apprentissage automatique de Vector

Logo vectoriel

L’Institut Vector nomme 13 nouveaux membres du corps professoral, élargissant ainsi le leadership principal de la recherche à travers l’Ontario

Les femmes écrivent sur un tableau blanc. Il y a un homme à sa gauche qui regarde le tableau.

Les chercheurs en vecteurs plongent dans l’apprentissage profond à l’ICLR 2025

Quand l’IA rencontre les affaires humaines : évaluer les modèles multimodaux à travers une perspective centrée sur l’humain – Voici HumaniBench

Les femmes écrivent sur un tableau blanc. Il y a un homme à sa gauche qui regarde le tableau.

Les chercheurs en vecteurs s’attaquent aux défis réels de l’IA lors de l’ICML 2025

Recherche en santé

Améliorer les résultats de santé pour tous

Vector aide à améliorer les résultats en santé des populations en créant un écosystème d’IA qui favorise l’innovation, permet une meilleure collecte et analyse des données, répond aux défis du personnel, réduit les temps d’attente et améliore la vie et les soins des patients.

En savoir plus sur la recherche en santé

Amin Karbasi prend la parole sur scène lors de la conférence Remarquable 2024

Conférences de recherche

Série de conférences distinguées Vector

La série de conférences distinguées Vector de l’Institut Vector est une série de conférences publiques destinée aux scientifiques universitaires et industriels des données de la région du Grand Toronto, afin de discuter de sujets avancés liés à l’apprentissage automatique.

Regardez les conférences précédentes de la série de conférences distinguées Vector

« Apprentissage des fonctionnalités et « L’hypothèse de représentation linéaire » pour la surveillance et la direction des LLM »

Mikhaïl (Misha) Belkin

Professeur à l’Institut de science des données Halicioglu et à l’Université de Californie à San Diego; et boursière amazonienne

« Les analyses linguistiques approfondissent notre compréhension des systèmes d’IA : les cas des référentiels et du raisonnement logique »

Freda Shi

membre du corps professoral Vector; Président IA du CIFAR Canada; et professeur adjoint à la David R. Cheriton School of Computer Science, Université de Waterloo

« Améliorer le soutien décisionnel de l’IA avec interprétabilité et interaction »

Finale Doshi-Velez

Professeur Herchel Smith en informatique à la Harvard Paulson School of Engineering and Applied Sciences

« IA symbolique, statistique et causale »

Bernhard Schölkopf

Directeur, Institut ELLIS de Tuebingen
Professeur, ETH

« Promesses et pièges des données publiques en apprentissage automatique privé » | Gautam Kamath, membre du corps professoral de Vector

Résumé du discours :

Les modèles d’apprentissage automatique sont fréquemment entraînés sur des ensembles de données à grande échelle, qui peuvent contenir des données sensibles ou personnelles. De manière inquiétante, sans soin particulier, ces modèles ont tendance à révéler des informations sur des points de données dans leur ensemble d’entraînement, ce qui mène à des violations de la vie privée individuelle. Pour nous protéger contre ces risques liés à la vie privée, nous pouvons entraîner des modèles avec la confidentialité différentielle (DP), une notion rigoureuse de la vie privée des données individuelles. Bien que l’entraînement des modèles avec DP ait déjà été observé comme entraînant des pertes d’utilité inacceptables, je discuterai des avancées récentes qui intègrent les données publiques dans la chaîne d’entraînement, permettant aux modèles de garantir à la fois la confidentialité et l’utilité. Je discuterai aussi des écueils potentiels de cette approche et des orientations à suivre pour la communauté. 

« Trajectoires troublantes pour la quantification de l’incertitude et la prise de décision avec les réseaux de neurones » | Geoff Pleiss, membre du corps professoral de Vector

Résumé du discours :

Dans les contextes critiques pour la sécurité et les tâches décisionnelles, il est souvent crucial de quantifier l’incertitude prédictive des modèles d’apprentissage automatique. Les estimations d’incertitude codifient non seulement la fiabilité des prédictions, mais identifient aussi les régions de l’espace d’entrée qui bénéficieraient d’une exploration supplémentaire. Malheureusement, quantifier l’incertitude des réseaux de neurones s’est avéré être un défi de longue date. Dans cette présentation, je discuterai des critères (au-delà de la calibration) des estimations d’incertitude qui apportent une utilité significative sur les résultats et tâches en aval. Je démontrerai où les méthodes existantes échouent et – plus inquiétant encore – je discuterai des preuves récentes que leur efficacité diminuera encore à mesure que les réseaux neuronaux continueront de croître en capacité. Je conclurai par des idées pour des orientations futures, ainsi qu’un appel à des approches radicalement différentes pour la quantification de l’incertitude.

« Construire un écosystème, pas un monolithe » | Colin Raffel, membre du corps professoral de Vector

Résumé du discours :

Actuellement, le paradigme prééminent pour la construction de l’intelligence artificielle est le développement de grands modèles polyvalents visant à pouvoir accomplir toutes les tâches au niveau (sur)humain. Dans cette présentation, je soutiendrai qu’un écosystème de modèles spécialisés serait probablement beaucoup plus efficace et pourrait être significativement plus performant. Un tel écosystème pourrait être construit de façon collaborative par une communauté distribuée et être continuellement élargi et amélioré. Dans cette présentation, je présenterai certains des défis techniques liés à la création d’écosystèmes de modèles, notamment la sélection automatique des modèles à utiliser pour une tâche particulière, la fusion des modèles pour combiner leurs capacités, et la communication efficace des changements apportés à un modèle.

« Les réseaux neuronaux de graphes rencontrent la théorie spectrale des graphes : une étude de cas » | Renjie Liao, membre du corps professoral de Vector

Résumé du discours :

Le résumé de la conférence n’est pas disponible

« Théorie des matrices aléatoires pour l’optimisation à haute dimension, et application aux lois de mise à l’échelle » | Elliot Paquette, professeur agrégé à l’Université McGill

Résumé du discours :

Nous décrivons un programme d’analyse des méthodes de gradient stochastique sur des objectifs aléatoires de haute dimension. Nous illustrons certaines hypothèses selon lesquelles les courbes de perte sont universelles, c’est-à-dire qu’elles peuvent être entièrement décrites en termes de certaines covariances sous-jacentes. De plus, nous décrivons ces courbes de perte qui peuvent être analysées avec précision. 

Nous montrons comment cela peut être appliqué à SGD sur un modèle de lois de puissance et de caractéristiques aléatoires. Il s’agit d’une famille simple de problèmes d’optimisation à deux hyperparamètres, qui présente 5 phases distinctes de courbes de perte; Ces phases sont déterminées par la complexité relative de la cible, la distribution des données, et si celles-ci sont « de haute dimension » ou non (ce qui, dans son contexte, peut être précisément défini).  À chaque phase, on peut aussi donner, pour un budget de calcul donné, la dimensionnalité optimale des caractéristiques aléatoires.

Travail conjoint avec Courtney Paquette (McGill & Google Deepmind), Jeffrey Pennington (Google Deepmind) et Lechao Xiao (Google Deepmind).

« L’IA accélère la compréhension scientifique : les opérateurs neuronaux pour l’apprentissage sur les espaces fonctionnels » | Anima Anandkumar, professeure Bren à Caltech

Résumé du discours :

Les modèles de langage ont été utilisés pour générer de nouvelles idées et hypothèses dans des domaines scientifiques. Par exemple, les modèles de langage pourraient suggérer de nouveaux médicaments ou des conceptions d’ingénierie. Cependant, cela ne suffit pas à attaquer la partie difficile de la science, qui est les expériences physiques nécessaires pour valider les idées proposées. Cela s’explique par le fait que les modèles de langage manquent de validité physique et de la capacité de simuler les processus en interne. Les méthodes de simulation traditionnelles sont trop lentes et irréalisables pour des processus complexes observés dans de nombreux domaines scientifiques. Nous proposons des méthodes de simulation basées sur l’IA qui sont 4 à 5 ordres de grandeur plus rapides et moins coûteuses que les simulations traditionnelles. Ils sont basés sur des opérateurs neuronaux qui apprennent les cartographies entre les espaces de fonctions, et ont été appliqués avec succès à la prévision météorologique, à la dynamique des fluides, à la modélisation de la capture et du stockage du carbone, ainsi qu’à la conception optimisée de dispositifs médicaux, ce qui a permis d’accélérer et d’améliorer considérablement.

Restez à l’affût des dernières tendances et recherches en IA

Recevez toutes les dernières nouvelles, avancées et événements liés à l’IA directement dans votre boîte de réception. Abonnez-vous à notre infolettre mensuelle.