Faire avancer la recherche en IA et développer les talents. Explorez des publications, des bourses, des opportunités de carrière et embauchez des professionnels exceptionnels en IA.
Les recherches de Roy en apprentissage profond couvrent la théorie et la pratique. Ses contributions vont de ses travaux pionniers sur la théorie statistique empiriquement fondée pour l’apprentissage profond, à des algorithmes de pointe pour la compression des réseaux de neurones et l’entraînement parallèle des données. Ses travaux expérimentaux ont éclairé divers phénomènes d’apprentissage profond, notamment la dynamique d’entraînement des réseaux neuronaux et la connectivité des modes linéaires, tandis que ses travaux théoriques récents introduisent des modèles mathématiques simples mais précis pour les réseaux de neurones profonds lors de l’initialisation.
Au-delà de ses contributions à l’apprentissage profond, Roy a réalisé des avancées significatives dans les fondements mathématiques et statistiques de l’IA. Sa thèse sur les langages de programmation probabilistes et la théorie des probabilités calculables a été reconnue par un prix MIT Sprowls. Roy a récemment résolu plusieurs problèmes ouverts en théorie statistique de la décision posés il y a plus de 70 ans, en exploitant les propriétés des nombres infinitésimaux pour élargir l’ensemble des priors bayésiens permis. Ses travaux les plus récents, axés sur une prise de décision robuste et adaptative, ont été reconnus par de nombreuses présentations orales lors de conférences de premier plan et des prix du meilleur poster.