Blogue de recherche vectorielle : estimation de l’effet causal à l’aide de l’apprentissage automatique

19 janvier 2024

Recherche Insights2024 2024

Par Elham Dolatabadi, Maia Norman, Farnaz Kohankhaki, Rahul G. Krishnan, Deval Pandya, George-Kirollos Saad, Wen Xu et Joanna Yu

Accédez ici au dépôt GitHub du Causal Inference Laboratory.

L’intérêt grandit dans divers domaines, comme la santé, le commerce de détail, la finance et l’éducation, pour répondre aux questions causales plutôt qu’associatives. Ce changement de focus reflète la reconnaissance de l’importance de comprendre les mécanismes causaux sous-jacents qui guident les relations observées. En développant une meilleure compréhension de la causalité, on peut dépasser les corrélations superficielles et découvrir les facteurs et interventions qui influencent réellement les résultats. L’analyse causale permet aux décideurs de faire des choix plus éclairés et fondés sur les données et, ultimement, de provoquer des changements significatifs dans leurs domaines respectifs. Nous visons à rendre les cadres d’estimation de l’effet causal facilement accessibles aux développeurs, chercheurs et innovateurs en offrant un aperçu des différents composants d’un flux de travail d’estimation de l’effet causal, ainsi qu’une explication de la manière de mettre en œuvre des algorithmes et trousses d’outils d’apprentissage automatique (ML) de pointe pour résoudre une grande variété de problèmes causals.

Ce matériel a été présenté comme un laboratoire pratique d’inférence causale organisé par Vector, afin d’approfondir les connaissances pratiques sur les techniques et applications causales, et de favoriser la collaboration interdisciplinaire entre experts du domaine dans divers secteurs et industries. L’objectif du laboratoire était de faciliter les applications pratiques de l’estimation de l’effet causal à divers défis, y compris l’estimation de l’effet du traitement avec des données réelles en médecine de précision, la maximisation de l’efficacité du trading algorithmique sur les marchés financiers, la prédiction du churn, l’optimisation de la chaîne d’approvisionnement et la tarification dynamique. Une caractéristique centrale de ce laboratoire interactif était la mise en œuvre d’un flux de travail d’estimation de l’effet causal. Le flux de travail englobe divers aspects de l’estimation de l’effet causal, tels que l’estimation par modèle et la sélection de méthodes d’estimation appropriées à l’aide de techniques issues de recherches récentes menées par des groupes de premier plan dans le domaine.

De « corrélation n’implique pas de causalité » à l’analyse causale

La corrélation signifie une association, mais pas la causalité. Deux variables pourraient être statistiquement corrélées, mais pas nécessairement liées causalement. Dans ce cas, ce type d’association est confus et les deux variables corrélées sont associées à une troisième variable, qui est une variable causale et tend à coexister avec les données que nous mesurons. 1 Par exemple, supposons qu’il existe une corrélation positive entre l’augmentation des ventes de crème glacée et le nombre d’attaques de requins à la plage. On pourrait à tort en déduire qu’acheter plus de crème glacée contribue d’une certaine façon à augmenter le risque d’attaques de requins, ou vice versa. Cependant, en réalité, la corrélation est probablement due au fait que les ventes de crème glacée et les attaques de requins ont tendance à augmenter pendant les mois d’été. La saisonnalité, avec plus de gens passant du temps à la plage par temps chaud, est le facteur courant qui influence ces deux variables. Plus il y a de gens à la plage (ce qui contribue à une augmentation des ventes de crème glacée), plus le risque d’attaque de requin est élevé. 


Par conséquent, toute association n’est pas nécessairement causalité et mesurer la causalité n’est pas aussi simple que de mesurer l’association. Les statistiques traditionnelles et l’apprentissage automatique excellent dans l’identification des associations entre variables et l’estimation des probabilités liées à des événements passés ou futurs. Cependant, lorsqu’il s’agit de comprendre les véritables relations de cause à effet entre les variables dans des conditions dynamiques et changeantes, elles sont insuffisantes. L’analyse causale va au-delà de l’inférence des probabilités et associations, mais aussi de la façon dont les probabilités changent lorsque les conditions peuvent évoluer dynamiquement. Cela peut inclure des changements induits par des interventions externes, des traitements ou tout autre facteur influençant le système analysé. 2

Comment transformer une question causale en problème d’estimation?

Comme nous l’avons appris plus haut, il existe une distinction entre l’analyse causale et l’analyse statistique. Dans le contexte de l’analyse causale, l’expression « identification » est désignée comme le processus de passage d’une analyse causale à une analyse statistique équivalente. Le processus de construction et d’estimation d’un effet causal, comme illustré à la Figure 1, est un processus en plusieurs étapes consistant à établir puis identifier le modèle causal, ce qui inclut la formulation d’hypothèses pour les transformer en modèles statistiques et l’application de diverses méthodes d’estimation pour estimer les modèles causaux alignés avec la stratégie d’identification choisie. Il y a donc un remarquable regain d’intérêt pour le développement de méthodologies pour construire des modèles causaux et identifier efficacement les effets causaux à partir des données observationnelles. Les avancées récentes en apprentissage automatique et apprentissage profond ont offert aux chercheurs des outils puissants pour naviguer dans la complexité liée à l’estimation des effets causals. 3-7 Ces techniques offrent flexibilité, automatisation et évolutivité, permettant des estimations plus précises et perspicaces de l’effet causal à partir de données observationnelles.

Figure 1 : Le flux de travail d’estimation de l’effet causal comprend trois modules pour identifier, estimer et évaluer des modèles causaux à partir de données observationnelles du monde réel.

Il est important de noter que le travail d’équipe multidisciplinaire, incluant des experts en la matière, est essentiel au processus de construction d’un modèle robuste d’estimation de l’effet causal. La collaboration entre les experts en connaissances du domaine et les ingénieurs en apprentissage automatique garantit que les questions de recherche sont bien définies, que la conception de l’étude est appropriée, que l’analyse tient compte des facteurs pertinents et que les résultats sont correctement interprétés dans le contexte du sujet.

Détails et conseils sur le flux de travail causal

Notre guide de flux de travail sur l’estimation de l’effet causal, ci-dessous, offre un aperçu détaillé des modules techniques inclus dans notre flux de travail d’estimation de l’effet causal, résumé à la Figure 1, incluant l’utilisation d’estimateurs tels que la modélisation conditionnelle des résultats, l’apprentissage des représentations et l’apprentissage automatique double pour identifier, estimer et évaluer des modèles causals à partir de données observationnelles du monde réel, démontrées sur trois ensembles de données du monde réel.

Préliminaires

Dans ce travail, nous nous concentrons sur le problème de l’estimation de l’effet causal selon le cadre des résultats potentiels de Rubin-Neyman avec une confusionconditionnelle 8. Les données observées consistent en des échantillons de variables aléatoires (Y, X, W, T) provenant d’une distribution inconnue, où X représente toutes les covariables observées, T représente l’attribution du traitement, Y représente le résultat d’intérêt, et W représente les facteurs de confusion satisfaisant le critère de porte dérobée relative à T et Y (où W bloque tous les chemins de porte dérobée de T à Y et ne contient aucun descendant de T). 9 Nous considérons uniquement les traitements binaires T ∈ {0, 1}. Ainsi, nous avons deux résultats possibles : Y (1) = Y (do(T = 1)) et Y (0) = Y(do(T = 0)). Cette étude vise à estimer l’effet du traitement, qui est un problème récurrent d’effet causal englobant l’impact du traitement au niveau individuel ou de la population.

Nous désignons l’effet individuel du traitement (ITE) par τi, qui est mathématiquement défini comme :

                τi ≘Yi(1) − Yi(0)                    

En raison du problème fondamental de l’inférence causale, nous ne pouvons pas accéder aux effets individuels du traitement (nous ne pouvons pas observer à la fois Yi(1) et Yi(0)). Mais on peut estimer l’effet moyen du traitement (ATE), τ, qui est mesuré en prenant la moyenne sur ITE :

                τ ≘E[Yi(1) − Yi(0)] = E[Yi(do(T = 1)) − Yi(do(T = 0))]         

In order to make the treatment effects identifiable3, 10, 11 we posit the three assumptions of Consistency (𝑌 = 𝑇.𝑌 (1)+(1−𝑇 )𝑌 (0)), Conditional Ignorability (𝑌 (0), 𝑌 (1) ㅛ𝑇|𝑊) and Overlap (0 < ℼ(𝑤) < 1, ∀ 𝑤 ∈ 𝑊):

                τ ≘Ew[E[Y|T = 1, W = w] −E wE[Y|T = 0, W =w]]        

Nous désignons μ(w) comme un résultat potentiel attendu et π(w) comme un score de propension comme suit :

Estimation par modèle causal

L’estimation du modèle dans notre flux de travail permet de constituer plusieurs groupes d’estimateurs pour les estimands causaux identifiés. Les deux premiers groupes d’estimateurs, la modélisation conditionnelle des résultats (COM) et la modélisation conditionnelle des résultats (GCOM), exploitent une gamme de modèles ML linéaires et non linéaires, incluant les moindres carrés ordinaires, les forêts aléatoires et les réseaux neuronaux feed-forward. De plus, notre flux de travail inclut la mise en œuvre d’estimateurs basés sur l’apprentissage de représentation tels queTARNet 5 et DragonNet6 , basés sur des techniques d’apprentissage profond. De plus, nous fournissons d’autres modèles efficaces en matière de données utilisant le cadre Double ML,4 tous accompagnés d’un pipeline dédié explicitement conçu pour l’ajustement des hyperparamètres. 

Modélisation conditionnelle des résultats 

Les estimateursCOM 12, également appelés « S-apprenant » ou « estimateurs de calcul G » dans la littérature, consistent à ajuster un seul estimateur modélisant les variables de résultat, Y, en fonction de l’assignation concaténée du traitement et d’autres covariables pertinentes. En utilisant COM, l’objectif est d’ajuster un estimateur, μ(t, w), à l’espérance conditionnelle, E[Y |T = t, W = w], qui pourrait être un modèle statistique ou un modèle ML. Plus précisément, l’ATE est la moyenne empirique,E w, sur les n points d’observation échantillonnés :

GCOM semble répondre à la question de l’ATE zéro; cependant, cela introduit un autre inconvénient en ne pas utiliser toutes les données disponibles pour l’entraînement des modèles.

Un inconvénient important des estimateurs COM est leur potentiel à négliger la variable de traitement, surtout dans les situations où les variables de confusion sont de haute dimension. Cela peut entraîner une estimation biaisée de la COM et une ATE de zéro. 13

Modélisation conditionnelle des résultats conditionnels groupés

Les estimateurs GCOM13 , également appelés « T-apprenant », consistent à construire deux modèles distincts μ1(w) et μ2 (w) prédisant Y à partir de W dans le groupe un où T = 1 et dans le groupe deux où T = 0, respectivement. Pour le traitement binaire, l’ATE est définie comme suit :

Apprentissage de la représentation

Comme dans d’autres domaines, le domaine de l’estimation causale bénéficie également des avancées en apprentissage profond. Les modèles d’estimation causale enracinés dans des réseaux de neurones profonds sont conçus pour corriger les lacunes en apprenant des représentations complexes et non linéaires des données observationnelles. Intuitivement, ces modèles se partagent deux objectifs : améliorer la précision de la prédiction des résultats factuels et contrefactuels tout en minimisant la distance entre la distribution de la population traitée et celle de la population témoin. Deux approches notables sontTARNet 5 et DragonNet. 6 TARNet est une architecture de réseau de neurones à deux têtes composée d’un seul réseau de neurones profond, suivi de deux sous-réseaux distincts, chacun dédié à un groupe de traitement spécifique. Le réseau unique est un estimateur COM, μ(t, w), exploitant toute l’observation pour apprendre une représentation indépendante du traitement. Inversement, les sous-réseaux utilisent le sous-ensemble pertinent de la représentation spécifique à chaque groupe de traitement pour prédire la variable de résultat, Y. DragonNet, semblable à TAR-Net, est un modèle de réseau de neurones profond qui intègre une tête supplémentaire pour estimer le score de propension, π(w), en plus de l’estimation COM, μ(t, w), réalisée par les deux autres têtes. La troisième tête du réseau agit comme un régularisateur et échange la qualité de la prédiction pour obtenir une meilleure représentation du score de propensité.

Double apprentissage automatique

Le concept d’apprentissage automatique double/debiased ou Double ML (DML), également connu sous le nom deR-learner 4, a émergé comme une méthode permettant d’obtenir une estimation impartiale des effets causaux à l’aide de modèles ML. Ce qui distingue le DML, c’est sa capacité à fournir des garanties d’intervalles de confiance et des taux de convergence rapides. Contrairement àTARNet 5 et DragonNet,6 où les modèles ML dorsal sont typiquement des réseaux neuronaux et les traitements sont généralement binaires ou discrets, DML offre la flexibilité d’utiliser divers modèles ML et d’accommoder des traitements continus. En DML, nous utilisons un processus en deux étapes pour ajuster le modèle linéaire partiel suivant.

  1. Nous avons installé deux estimateurs, un estimateur, μ(𝑤), pour prédire un résultat potentiel espéré Y à partir des covariables W et d’un autre estimateur, π(𝑤), pour prédire le traitement, T, à partir des covariables, W. Pour les deux estimations, on peut tirer parti du ML et la raison pour laquelle on l’appelle double ML est qu’on utilise ML deux fois.
  2. Nous délimitons partiellement les effets des covariables en examinant les résidus des deux modèles, qui sont les différences entre les valeurs prédites et réelles. En d’autres termes, nous confondons l’effet du traitement sur le résultat en partialisant cela.

Ensuite, nous ajustons un modèle pour prédire les résidus des valeurs de résultat, ui, en utilisant les résidus des valeurs de traitement, vi pour obtenir l’estimation β1 et donc ATE.

Sélection du modèle causal

La sélection du modèle pose un défi important dans l’estimation des effets causaux en raison du problème fondamental de ne pas pouvoir observer directement les contrefactuels. Cette caractéristique distinctive rend la tâche de sélection du modèle en estimation de l’effet causal plus complexe que dans d’autres approches d’apprentissage automatique et statistiques. Par conséquent, l’approche de validation croisée couramment utilisée est impraticable. À la place, des métriques proxy basées sur des modèles auxiliaires de nuisance et l’utilité de la politique décisionnelle basée sur l’effet de traitement hétérogène des estimateurs ont été proposées dans la littérature. 14 Le module de sélection de modèle dans notre cadre permet la création de divers indicateurs d’évaluation adaptés à trois groupes distincts d’ensembles de données, incluant des ensembles semi-ou entièrement synthétiques, des essais contrôlés randomisés et des ensembles de données observationnelles du monde réel.

Métriques de précision

Deux métriques d’évaluation largement utilisées pour les contrefactuels connus et la vérité fondamentale de l’ATE sont respectivement la précision attendue dans l’estimation des effets hétérogènes (PEHE)15 et l’erreur absolue dans l’ATE. Le PEHE attendu, ∈PEHE, quantifie la capacité d’un modèle à capturer l’hétérogénéité des effets causaux du traitement chez les individus d’une population, en mesurant l’écart entre les effets estimés et les effets fondamentaux du traitement au niveau individuel :

L’accès limité aux effets thérapeutiques hétérogènes au niveau individuel et la disponibilité d’une ATE de vérité fondamentale dans les essais contrôlés randomisés ont conduit à l’adoption de l’erreur absolue dans l’ATE, ∈ATE

Métriques basées sur l’approximation

Cette classe de métriques, notée M, construit un effet approximatif de traitement de la vérité du terrain en utilisant des modèles de nuisance en l’absence de contrefactuels, ce qui fournit l’effet de traitement « vrai », mais techniquement non observé. Les mesures basées sur l’approximation quantifient l’écart d’hétérogénéité entre les effets estimés du traitement et les valeurs approximatives d’une manière analogue à la PEHE. À l’exception des estimateurs comme le double ML, qui ne peuvent pas estimer les effets hétérogènes du traitement, l’écart entre l’ATE et l’ATE approximatif peut être évalué. Une valeur plus basse indique un meilleur alignement entre les estimations et les approximations :

où MPEHE désigne des métriques basées sur l’approximation pour l’estimation des effets hétérogènes et MATE pour l’estimation des effets moyens du traitement.

Il existe quatre approches couramment employées pour approximer l’effet de traitement de la vérité du terrain : l’appariement, la pondération 16 , la modélisation 11 , la fonction 17 et la fonction d’influence. 17 L’appariement inclut la recherche du plus proche voisin (nn) du groupe de traitement opposé pour chaque échantillon de l’observation en fonction de leurs valeurs de covariables. L’effet de traitement correspondant est défini comme la différence entre les résultats observés parmi les échantillons de voisins les plus proches.

Une autre approche courante pour approximer l’effet de traitement de la vérité au terrain est la pondération à l’aide de la pondération inverse de la propension (IPW). En utilisant l’IPW, nous pouvons construire une pseudo-population dans laquelle les distributions des résultats sont équilibrées entre les deux groupes de traitement. L’effet de traitement pondéré est alors défini comme suit :

De plus, nous pouvons utiliser des modèles de régression comme les estimateurs COM (S-apprenant) et GCOM (T-apprenant), tous deux appelés méthodes PEHEplug-in 17 pour approximer la vérité fondamentale ITE comme suit :

Selon Alaa & Van Der Schaar,17, les méthodes de modélisation ou de type plug-in PEHE ne peuvent vraiment démontrer leurs performances comparatives que lorsque les différences entre elles sont suffisamment faibles, c’est-à-dire M~0. Sinon, lorsque les différences sont significatives, elles ont tendance à présenter un biais selon le modèle utilisé. Pour surmonter cette limitation, des fonctions d’influence ont été proposées afin d’obtenir des estimations non biaisées du PEHE et de sa variance. Ces fonctions d’influence capturent les dérivées fonctionnelles de l’effet causal et fournissent des métriques plus robustes et généralisables. Dans le contexte du plugiciel GCOM PEHE, un terme supplémentaire incorporant une fonction d’influence basée sur une expansion de type Taylor est défini comme suit :

Expériences

Étalonnage des ensembles de données

Résultats factuels et contrefactuels simulés : Programme de santé et de développement des nourrissons (IHDP)

Le Programme original de santé et de développement infantile (IHDP) est une étude contrôlée randomisée conçue pour évaluer l’effet des visites à domicile de médecins spécialistes sur les résultats cognitifs des nourrissons prématurés. L’ensemble de données a finalement été transformé d’un design aléatoire à un cadre d’observation et est devenu un point de référence largement utilisé pour l’estimation causale. 15 La transformation a inclus l’induction d’un biais de sélection en retirant des sous-ensembles non aléatoires des individus traités afin que le traitement se produise. De plus, les résultats ont été simulés à l’aide des covariables et traitements originaux. L’ensemble de données de benchmarking comprend 747 sujets et 25 variables. Le traitement fait référence à des visites à domicile par des spécialistes, et les résultats d’intérêt sont les résultats des tests cognitifs. L’ensemble de données comprend jusqu’à 100 réalisations pour des résultats factuels et contrefactuels. Après Hill,15 , nous avons utilisé le résultat silencieux comme véritable résultat pour construire des estimateurs dans nos expériences. Nous rapportons que les effets du traitement ont été en moyenne plus de 100 réalisations des résultats factuels et contrefactuels avec une répartition 80/20 train/test.

Essai contrôlé randomisé : Emplois

Le jeu de données Jobs, introduit par LaLonde,18 , est un point de référence largement utilisé dans la communauté de l’estimation des effets causals. Dans cet ensemble de données, le traitement fait référence à la formation professionnelle, et les résultats d’intérêt sont le statut d’emploi après la formation. L’ensemble de données comprend 8 covariables, dont l’âge, le niveau d’éducation et les revenus antérieurs. Après Shalit et al.,5 , nous avons combiné l’échantillon expérimental de LaLonde (297 traités, 425 témoins) avec le groupe de comparaison PSID (2490 témoins).

Données observationnelles du monde réel : jeu de données TWINS

Le jeu de données TWINS, qui couvre les naissances de jumeaux aux États-Unis de 1989 à 1991, vise principalement à étudier l’impact du poids relatif sur le taux de mortalité des jumeaux. Comme référence pour l’estimation de l’effet causal,11 l’ensemble de données utilise un traitement binaire artificiel, étant spécifiquement plus lourd à la naissance. Le résultat binaire mesure la mortalité de chaque jumeau durant leur première année. Puisque l’ensemble de données fournit des dossiers pour les deux jumeaux, nous traitons leurs résultats comme deux issues potentielles selon l’attribution du traitement : naisser plus lourd ou non. Cette configuration permet des analyses d’estimation de l’effet causal concernant l’effet du poids relatif sur les taux de mortalité des jumeaux. L’ensemble de données comprend 23 968 échantillons (11 984 traités, 11 984 témoins) et 46 covariables liées aux parents, à la grossesse et à la naissance.

Résultats

Pour chaque ensemble de données, nous présentons des évaluations englobant une gamme d’estimateurs causaux dans les tableaux 1, 2 et 3 pour IHDP, Jobs et TWINS, respectivement. Les évaluations sont la moyenne et l’écart-type de la précision ainsi que des métriques basées sur l’approximation sur 10 exécutions utilisant le module de sélection de modèles de notre cadre. À l’exception du Double ML, tous les résultats basés sur l’approximation, MPEHE, présentés dans le tableau, sont associés à l’estimation des effets hétérogènes (individuels) du traitement sur des ensembles hors échantillon ou hors échantillon. Cependant, les métriques pour Double ML, MATE, concernent les effets moyens du traitement, et leurs valeurs ne sont pas dans la même fourchette que les autres estimateurs et ne peuvent pas être comparées directement.

En utilisant les métriques basées sur l’approximation, nous adoptons la procédure suivante pour identifier l’estimateur optimal lorsque l’accès aux effets du traitement de la vérité de terrain n’est pas disponible : premièrement, pour chaque métrique dérivée d’approximations, nous optons pour la valeur la plus basse présentant la moyenne la plus basse. Deuxièmement, les estimateurs présentant la majorité de ces valeurs plus basses seront alors choisis comme les meilleurs estimateurs. Les métriques en gras dans les tableaux ci-dessous sont celles qui satisfont aux conditions spécifiées telles qu’expliquées.

Une observation intéressante dans l’ensemble de données IHDP du tableau 1 émerge, où les indicateurs de performance restent constamment alignés entre tous les estimateurs, bien qu’ils montrent de légères fluctuations. Notamment, DragonNet et Double ML se distinguent par leurs performances supérieures à celles des autres estimateurs, avec toutefois une différence marginale. Comme on peut le voir dans le tableau 2, sur le jeu de données Jobs, basé sur ∈ATE en utilisant les données de la vérité fondamentale, les moindres carrés ordinaires COM surpassent les autres estimateurs. Néanmoins, en suivant notre stratégie de sélection de modèle mentionnée ci-dessus, basée sur des métriques approximatives, la régression en forêt aléatoire COM démontre une performance impressionnante dans l’estimation du PEHE à travers tous les modèles de nuisance. L’ensemble de données TWINS, tel que montré dans le tableau 3, révèle un schéma similaire à celui de l’ensemble IHDP. Pour tous les estimateurs, les mesures de performance démontrent constamment un niveau remarquable de cohérence. Cependant, les moindres carrés ordinaires du COM ont surpassé d’autres estimateurs selon la précision et les métriques d’approximation.

Tableau 1 : Résultats de IHDP100 jeu de données sur l’ensemble de tests (ou hors échantillon). Note 1 : Les valeurs de résultat ont été normalisées à l’aide d’un MinMaxScaler pour les confiner dans la plage de 0 et 1. La transformation s’effectue en appliquant la mise à l’échelle suivante :
Note 2 : comme le montre MATE, les métriques pour le double ML concernent les effets moyens du traitement, ce qui donne des plages différentes comparées à celles du MPEHE.
Tableau 2 : Résultats du jeu de données Jobs sur l’ensemble de test. Note 1 : +L’ensemble de données ne présente pas de résultats contrefactuels fondés, donc ∈PEHE ne peut pas être mesuré.
Tableau 3 : Résultats du jeu de données TWINS sur l’ensemble de test.

Conclusion

En conclusion, nous espérions offrir un aperçu complet de notre flux de travail d’estimation de l’effet causal en détaillant les subtilités de chaque composant et leurs implémentations à travers diverses expériences. Nous espérons que cela aidera les chercheurs et les innovateurs à appliquer et mettre en œuvre efficacement les concepts causaux et à faire progresser les applications concrètes de l’estimation de l’effet causal.

Contributions et remerciements

Nous souhaitons reconnaître les précieuses contributions techniques et théoriques des participants du Laboratoire d’inférence causale, ainsi que celles des personnes nommées ci-dessous :

Conseillers académiques et de projet

Vahid Balazadeh Meresht1, Rahul G. Krishnan1,2+ˆ@<, Deval Pandya2+@<%, Andres

Rojas2+<%

Équipe du projet Vector

Elham Dolatabadi1,2,3+∧&@∼<>, Amirmohammad Kazemeini2<>@%, Farnaz Kohankhaki2>, Maia Norman2,4+&@<>%, George Saad2∧&@>, Wen Xu2∧&@>, Joanna Yu2@<>

Facilitateurs de laboratoire

Dami Aremu2>, Winnie Au2<>, Asic Chen1>, Michael Cooper1>, Shaaf Farooq2>, Sedef Kocak2>, Tahniat Khan2>, Umar Khan2>, Farnam Mansouri4>, Shayaan Mehdi2>, Amirmohammad Shahbandegan2>, Ian Shi1>

Références

  1. Neal, B. : Introduction à l’inférence causale : du point de vue de l’apprentissage automatique. Notes du cours (2020)
  2. Pearl, J. : Inférence causale en statistique : un aperçu (2009)
  3. Battocchi, K., Dillon, E., Hei, M., Lewis, G., Oka, P., Oprescu, M., Syrgkanis, V. : Econml : Un paquet python pour l’estimation des effets hétérogènes de traitement basé sur le ML. Version 0. x (2019)
  4. Chernozhukov, V., Chetverikov, D., Demirer, M., Duflo, E., Hansen, C., Newey, W., Robins, J., et al. : Apprentissage automatique double/debiased pour le traitement et les paramètres causaux. Représentant technique (2017)
  5. Shalit, U., Johansson, F.D., Sontag, D. : Estimation de l’effet individuel du traitement : limites de généralisation et algorithmes. Dans : Conférence internationale sur l’apprentissage automatique. pp. 3076–3085. PMLR (2017)
  6. Shi, C., Blei, D., Veitch, V. : Adapter les réseaux neuronaux pour l’estimation des effets du traitement. Avancées dans les systèmes de traitement de l’information neuronale 32 (2019)
  7. Wager, S., Athey, S. : Estimation et inférence des effets hétérogènes du traitement à l’aide de forêts aléatoires. Revue de l’American Statistical Association 113(523), 1228–1242 (2018)
  8. Rubin, D.B. : Estimation des effets causaux des traitements dans des études randomisées et non randomisées. Revue de psychologie de l’éducation 66(5), 688 (1974)
  9. Pearl, J. : Inférence causale. Causalité : objectifs et évaluation pp. 39–58 (2010)
  10. Imbens, G.W., Wooldridge, J.M. : Développements récents en économétrie de l’évaluation des programmes. Journal of Economic Literature 47(1), 5–86 (2009)
  11. Peters, J., Janzing, D., SchÈolkopf, B. : Éléments de l’inférence causale : fondements et algorithmes d’apprentissage. The MIT Press (2017)
  12. Hastie, T., Tibshirani, R., Friedman, J.H., Friedman, J.H. : Les éléments de l’apprentissage statistique : exploration de données, inférence et prédiction, vol. 2. Springer (2009)
  13. Künzel, S.R., Sekhon, J.S., Bickel, P.J., Yu, B. : Méta-apprenants pour estimer les effets hétérogènes des traitements à l’aide de l’apprentissage automatique. Actes de l’Académie nationale des sciences 116(10), 4156–4165 (2019)
  14. Mahajan, D., Mitliagkas, I., Neal, B., Syrgkanis, V. : Analyse empirique de la sélection de modèles pour l’estimation de l’effet causal hétérogène. Prépublication arXiv arXiv :2211.01939 (2022)
  15. Hill, J.L. : Modélisation bayésienne non paramétrique pour l’inférence causale. Journal of Computational and Graphical Statistics 20(1), 217–240 (2011)
  16. Rolling, C.A., Yang, Y. : Sélection du modèle pour estimer les effets du traitement. Journal of the Royal Statistical Society Série B : Statistical Methodology 76(4), 749–769 (2014)
  17. Alaa, A., Van Der Schaar, M. : Validation des modèles d’inférence causale via des fonctions d’influence. Dans : Conférence internationale sur l’apprentissage automatique. pp. 191–201. PMLR (2019)
  18. LaLonde, R.J. : Évaluation des évaluations économétriques des programmes de formation avec des données expérimentales. The American Economic Review pp. 604–620 (1986)
  19. Almond, D., Chay, K.Y., Lee, D.S. : Les coûts d’un faible poids à la naissance. Le Quarterly Journal of Economics 120(3), 1031–1083 (2005)

À lire aussi :

2026
Réflexions
Recherche
Recherche 2026

La nouvelle cartographie de l’invisible

Les femmes écrivent sur un tableau blanc. Il y a un homme à sa gauche qui regarde le tableau.
2025
Recherche
Recherche 2025

Les chercheurs en vecteurs font avancer les frontières de l’IA avec 80 articles au NeurIPS 2025

Logo vectoriel
2025
Réflexions

Une nouvelle étude révèle l’impact économique de 100 milliards de dollars de l’IA à travers le Canada, avec l’Ontario en tête