Tir à la tête de Hassan Ashtiani

Hassan Ashtiani

Membre du corps professoral

Professeur agrégé, Département d’informatique et de logiciels, Faculté de génie, Université McMaster

Hassan Ashtiani est professeur agrégé au département d’informatique et de logiciels de l’Université McMaster. Il a obtenu son doctorat en informatique à l’Université de Waterloo. Avant cela, il a obtenu une maîtrise en IA et robotique ainsi qu’un baccalauréat en génie informatique, tous deux de l’Université de Téhéran. De manière générale, il travaille sur les fondements de l’apprentissage non supervisé, de la confidentialité différentielle, de la robustesse et de la théorie de l’apprentissage profond.

Les intérêts de Hassan pour l’apprentissage non supervisé couvrent l’apprentissage par distribution et la modélisation générative. Il est reconnu pour avoir introduit des schémas de compression de distributions pour analyser la complexité d’échantillons lors de l’apprentissage des mélanges gaussiens et des classes de distribution apparentées, telles que celles paramétrées par les réseaux à produit sommaire.

Dans le domaine de la confidentialité différentielle, Hassan a conçu des algorithmes pour l’estimation statistique privée (par exemple, la sélection d’hypothèses) et l’apprentissage privé des distributions à haute dimension (par exemple, les gaussiennes et leurs mélanges). Il s’intéresse particulièrement à la conception de réductions en boîte noire de l’apprentissage privé vers l’apprentissage non privé avec un minimum de surcharge statistique et/ou computationnelle.

Dans le domaine de la robustesse adversaire lors des essais, Hassan a introduit le cadre « tolérant » pour l’apprentissage adversaire, une tentative de combler l’écart entre la littérature théorique et appliquée.

Hassan s’intéresse à comprendre les fondements théoriques du succès des méthodes d’apprentissage profond. Cela inclut l’obtention de bornes de généralisation modernes pour les modèles profonds, ainsi que la définition de nouvelles notions de « gentillesse distributive » qui permettent aux modèles profonds de bien mieux performer que ce que suggère l’analyse dans le pire des cas. Cette direction capture des scénarios tels que l’alignement non supervisé des domaines et l’apprentissage sous décalage de distribution.

Intérêts de recherche

  •  Estimation et apprentissage en haute dimension
  • Confidentialité différentielle
  • Théorie de l’apprentissage profond
  • Robustesse en apprentissage automatique
  • Alignement non supervisé des domaines

Faits marquants

  • Prix du meilleur article à Neurips 2018