Faire avancer la recherche en IA et développer les talents. Explorez des publications, des bourses, des opportunités de carrière et embauchez des professionnels exceptionnels en IA.
Hassan Ashtiani est professeur agrégé au département d’informatique et de logiciels de l’Université McMaster. Il a obtenu son doctorat en informatique à l’Université de Waterloo. Avant cela, il a obtenu une maîtrise en IA et robotique ainsi qu’un baccalauréat en génie informatique, tous deux de l’Université de Téhéran. De manière générale, il travaille sur les fondements de l’apprentissage non supervisé, de la confidentialité différentielle, de la robustesse et de la théorie de l’apprentissage profond.
Les intérêts de Hassan pour l’apprentissage non supervisé couvrent l’apprentissage par distribution et la modélisation générative. Il est reconnu pour avoir introduit des schémas de compression de distributions pour analyser la complexité d’échantillons lors de l’apprentissage des mélanges gaussiens et des classes de distribution apparentées, telles que celles paramétrées par les réseaux à produit sommaire.
Dans le domaine de la confidentialité différentielle, Hassan a conçu des algorithmes pour l’estimation statistique privée (par exemple, la sélection d’hypothèses) et l’apprentissage privé des distributions à haute dimension (par exemple, les gaussiennes et leurs mélanges). Il s’intéresse particulièrement à la conception de réductions en boîte noire de l’apprentissage privé vers l’apprentissage non privé avec un minimum de surcharge statistique et/ou computationnelle.
Dans le domaine de la robustesse adversaire lors des essais, Hassan a introduit le cadre « tolérant » pour l’apprentissage adversaire, une tentative de combler l’écart entre la littérature théorique et appliquée.
Hassan s’intéresse à comprendre les fondements théoriques du succès des méthodes d’apprentissage profond. Cela inclut l’obtention de bornes de généralisation modernes pour les modèles profonds, ainsi que la définition de nouvelles notions de « gentillesse distributive » qui permettent aux modèles profonds de bien mieux performer que ce que suggère l’analyse dans le pire des cas. Cette direction capture des scénarios tels que l’alignement non supervisé des domaines et l’apprentissage sous décalage de distribution.