Vector attire les chercheurs en IA et en apprentissage automatique les plus accomplis et les plus innovants au monde.
Notre communauté de recherche renommée réalise des percées dans le domaine de la science et de l'application de l'IA. Qu'il s'agisse d'utiliser l'informatique quantique pour lutter contre le changement climatique, de développer de nouveaux modèles d'apprentissage automatique pour les applications 3D, d'exploiter l'IA pour améliorer la prévision des prix des denrées alimentaires, etc., les chercheurs de Vector découvrent de nouvelles façons d'appliquer l'IA pour obtenir de meilleurs résultats économiques, sanitaires et sociétaux.
Nos priorités stratégiques en matière de recherche
- Apprentissage automatique
- Apprentissage profond
- L'IA au service de la science
- Une IA digne de confiance
- L'IA au service de la santé
- Modèles de fondation
Vector poursuit son objectif de devenir l'un des dix premiers centres mondiaux de recherche sur l'IA en attirant les chercheurs les plus accomplis, les plus ambitieux et les plus novateurs du monde, qui sont à l'origine de nouvelles réalisations dans un large éventail de domaines liés à l'IA et à l'apprentissage automatique.
860 Membres de la communauté de recherche Vector, dont
Notre équipe de recherche en pleine expansion
Ce qui n'était autrefois que quelques professeurs fondateurs a évolué au cours des cinq dernières années pour devenir une communauté florissante comprenant plus de 700 chercheurs qui repoussent les limites de l'IA, de l'apprentissage automatique et de l'apprentissage profond dans des domaines critiques au profit des Ontariens, des Canadiens et des gens du monde entier.
Nous stimulons cette croissance en déployant des efforts nouveaux et accrus pour attirer et développer une communauté exceptionnelle.
- Favoriser la collaboration entre l'industrie et le monde universitaire afin d'établir un lien entre la recherche de pointe et les applications de l'IA.
- multiplier les possibilités pour les chercheurs de travailler avec des sponsors de l'industrie et des partenaires du secteur de la santé sur des problèmes concrets et des ensembles de données inédits.
- Élargir l'accès aux événements axés sur la recherche et les applications et accroître l'accès aux stages.
Recherche publiée
Dans le cadre de dizaines de projets et de thèmes de travail d'actualité, pertinents à l'échelle mondiale et ayant un impact, ces chercheurs trouvent de nouvelles façons d'appliquer l'IA pour améliorer les résultats économiques, sanitaires et sociétaux.
Dernières nouvelles de la recherche
Mon mandat de chercheur invité à l'Institut Vecteur
Les chercheurs de Vector présentent plus de 98 articles à NeurIPS 2024
Exploiter le potentiel du Prompt-Tuning dans l'apprentissage fédéré
Un nouvel ensemble de données multimodales contribuera au développement de systèmes d'IA éthiques
Dévoiler la maladie d'Alzheimer : Comment la parole et l'IA peuvent aider à détecter la maladie
Geoffrey Hinton, cofondateur de Vector, reçoit le prix Nobel de physique 2024
Recherche en matière de santé
Améliorer les résultats en matière de santé pour tous
Vector contribue à améliorer les résultats en matière de santé de la population en créant un écosystème d'IA qui favorise l'innovation, permet de mieux collecter et analyser les données, de relever les défis en matière de personnel, de réduire les temps d'attente et d'améliorer la vie des patients et les soins qui leur sont prodigués.
Discussions sur la recherche
Série de conférences Vector Distinguished
Le Vector Distinguished Lecture Series de l'Institut Vecteur est une série de conférences publiques destinées aux scientifiques des données universitaires et industriels de la région du Grand Toronto pour discuter de sujets avancés liés à l'apprentissage automatique.
Voir les conférences antérieures de la série Vector Distinguished Lectures
"Améliorer l'aide à la décision en matière d'IA grâce à l'interprétabilité et à l'interaction
Finale Doshi-Velez
Professeur Herchel Smith d'informatique à la Harvard Paulson School of Engineering and Applied Sciences
"L'IA symbolique, statistique et causale".
Bernhard Schölkopf
Directeur, ELLIS Institute Tuebingen
Professeur, ETH
"Promesses et pièges des données publiques dans les ML privées" | Gautam Kamath, membre de la faculté Vector
Résumé de l'exposé :
Les modèles d'apprentissage automatique sont souvent formés sur des ensembles de données à grande échelle, qui peuvent contenir des données sensibles ou personnelles. Il est inquiétant de constater que, sans une attention particulière, ces modèles sont susceptibles de révéler des informations sur les points de données de leur ensemble d'apprentissage, ce qui entraîne des violations de la vie privée des individus. Pour se prémunir contre de tels risques, il est possible d'entraîner des modèles avec une confidentialité différentielle (DP), une notion rigoureuse de la confidentialité des données individuelles. Bien qu'il ait été observé précédemment que l'apprentissage de modèles avec la confidentialité différentielle entraîne des pertes d'utilité inacceptables, je présenterai des avancées récentes qui intègrent des données publiques dans le processus d'apprentissage, ce qui permet aux modèles de garantir à la fois le respect de la vie privée et l'utilité. Je discuterai également des pièges potentiels de cette approche et des orientations futures pour la communauté.
"Trajectoires troublantes pour la quantification de l'incertitude et la prise de décision avec les réseaux neuronaux" - Geoff Pleiss, membre de la faculté Vector
Résumé de l'exposé :
Dans les environnements critiques pour la sécurité et les tâches de prise de décision, il est souvent crucial de quantifier l'incertitude prédictive des modèles d'apprentissage automatique. Les estimations de l'incertitude ne codifient pas seulement la fiabilité des prédictions, mais identifient également les régions de l'espace d'entrée qui bénéficieraient d'une exploration supplémentaire. Malheureusement, la quantification de l'incertitude des réseaux neuronaux s'est avérée être un défi de longue date. Dans cet exposé, je discuterai des critères (au-delà de l'étalonnage) des estimations de l'incertitude qui fournissent une utilité significative sur les résultats et les tâches en aval. Je montrerai où les méthodes existantes sont insuffisantes et, plus inquiétant encore, j'évoquerai les preuves récentes que leur efficacité continuera de diminuer à mesure que les réseaux neuronaux continueront d'augmenter leur capacité. Je conclurai par des idées sur les orientations futures, ainsi que par un appel à des approches radicalement différentes en matière de quantification de l'incertitude.
"Construire un écosystème, pas un monolithe" - Colin Raffel, membre de la faculté Vector
Résumé de l'exposé :
Actuellement, le paradigme dominant pour la construction de l'intelligence artificielle est le développement de grands modèles à usage général qui visent à être capables d'effectuer toutes les tâches à un niveau (super)humain. Dans cet exposé, je soutiendrai qu'un écosystème de modèles spécialisés serait probablement beaucoup plus efficace et pourrait être beaucoup plus performant. Un tel écosystème pourrait être construit en collaboration par une communauté distribuée et être continuellement élargi et amélioré. Dans cet exposé, je présenterai certains des défis techniques liés à la création d'écosystèmes de modèles, notamment la sélection automatique des modèles à utiliser pour une tâche particulière, la fusion de modèles pour combiner leurs capacités et la communication efficace des changements apportés à un modèle.
"Les réseaux neuronaux graphiques rencontrent la théorie des graphes spectraux : Une étude de cas" | Renjie Liao, membre de la faculté des sciences vectorielles
Résumé de l'exposé :
Le résumé de l'exposé n'est pas disponible
"Théorie des matrices aléatoires pour l'optimisation en haute dimension et application aux lois d'échelle" - Elliot Paquette, professeur associé à l'Université McGill
Résumé de l'exposé :
Nous décrivons un programme d'analyse des méthodes stochastiques de gradient sur des objectifs aléatoires de haute dimension. Nous illustrons certaines hypothèses sous lesquelles les courbes de perte sont universelles, en ce sens qu'elles peuvent être entièrement décrites en termes de covariances sous-jacentes. En outre, nous donnons une description de ces courbes de perte qui peuvent être analysées avec précision.
Nous montrons comment cela peut être appliqué au SGD sur un modèle de caractéristiques aléatoires en loi de puissance. Il s'agit d'une famille simple de problèmes d'optimisation à deux hyperparamètres, qui présente cinq phases distinctes de courbes de perte ; ces phases sont déterminées par les complexités relatives de la cible, la distribution des données et le fait qu'elles soient "à haute dimension" ou non (ce qui, dans le contexte, peut être défini avec précision). Pour chaque phase, nous pouvons également donner, pour un budget de calcul donné, la dimensionnalité optimale des caractéristiques aléatoires.
Travail conjoint avec Courtney Paquette (McGill & Google Deepmind), Jeffrey Pennington (Google Deepmind), et Lechao Xiao (Google Deepmind).
"AI Accelerating Scientific Understanding (L'IA accélère la compréhension scientifique) : Opérateurs neuronaux pour l'apprentissage sur les espaces fonctionnels" | Anima Anandkumar, professeur Bren à Caltech
Résumé de l'exposé :
Les modèles linguistiques ont été utilisés pour générer de nouvelles idées et hypothèses dans des domaines scientifiques. Par exemple, les modèles linguistiques peuvent suggérer de nouveaux médicaments ou de nouvelles conceptions d'ingénierie. Toutefois, cela ne suffit pas pour s'attaquer à la partie difficile de la science, à savoir les expériences physiques nécessaires pour valider les idées proposées. En effet, les modèles de langage n'ont pas de validité physique ni la capacité de simuler les processus en interne. Les méthodes de simulation traditionnelles sont trop lentes et infaisables pour les processus complexes observés dans de nombreux domaines scientifiques. Nous proposons des méthodes de simulation basées sur l'IA qui sont 4 à 5 fois plus rapides et moins chères que les simulations traditionnelles. Elles sont basées sur des opérateurs neuronaux qui apprennent les correspondances entre les espaces fonctionnels et ont été appliquées avec succès aux prévisions météorologiques, à la dynamique des fluides, à la modélisation de la capture et du stockage du carbone et à la conception optimisée de dispositifs médicaux, ce qui a permis d'obtenir des accélérations et des améliorations significatives.
Se tenir au courant des dernières tendances et recherches en matière d'IA
Recevez les dernières nouvelles, avancées et événements en matière d'IA directement dans votre boîte de réception. Inscrivez-vous à notre lettre d'information mensuelle.