Instituto de Matemática, Estatística e Computação Científica (IMECC), Universidade Estadual de Campinas (UNICAMP).
Introdução
Introdução
Sob ignorabilidade (\(Z \perp\!\!\!\perp \{ Y(1), Y(0)\} | X\)) e sobreposição (\(0 < e(X) < 1\)), temos mostrado duas fórmulas de identificação do ACE (\(\tau = \mathbb{E}[Y(1) - Y(0)]\)).
Outcome regression
\[\tau = \mathbb{E}[\mu_1(X)]- \mathbb{E}[\mu_0(X)],\]em que \(\mu_i(X) = \mathbb{E}[Y(i) | X] = \mathbb{E}[Y | Z = i, X]\)
IPW
\[\tau = \mathbb{E}\Big[\dfrac{ZY}{e(X)} \Big] - \mathbb{E}\Big[\dfrac{(1- Z)Y}{1 - e(X)} \Big],\]em que \(e(X) = P(Z = 1 | X)\) é o propensity score.
Introdução
Outcome regression, precisa ajustar um modelo para o resultado (\(Y\)) dado o tratamento (\(Z\)) e as covariáveis (\(X\)). É consistente se o modelo utilizado está corretamente especificado.
IPW precisa ajustar um modelo para o tratamento (\(Z\)) dadas as covariáveis (\(X\)). É consistente se o modelo do propensity score for corretamente especificado.
A combinação de ambas as abordagens motiva um novo estimador que também é consistente (conhecido como estimador augmented IPW ou Doubly Robust).
Estimador DR
Estimador DR
Postulemos um modelo para as médias condicionais do resultado, \(\mu_1(X, \beta_1)\) e \(\mu_0(X, \beta_0)\).
Por exemplo, se a média condicional for linear ou logística, os parâmetros são apenas os coeficientes da regressão.
Se o modelo for corretamente especificado, então \(\mu_i(X, \beta_i) = \mu_i(X)\).
Postulemos um modelo para o propensity score, \(e(X, \alpha)\).
Se o modelo for linear ou logiístico, \(\alpha\) é o coeficiente da regressão e se o modelo for corretamente especificado, \(e(X, \alpha) = e(X)\).
Note que os termos do meio, aumentam \(\mu_i(X, \beta_i)\) (os estimadores obtidos por outcome regression) pelos residuais ponderados pelo inverse propsensity score.
Os termos finais, aumentam o estimador IPW pelos resultados imputados.
Por esse motivo, os estimadores DR são também conhecidos como IPW aumentados.
Se \(e(X, \alpha) = e(X)\) ou \(\mu_1(X, \beta_1) = \mu_1(X)\), então \(\tilde{\mu}_1^{DR} = \mathbb{E}[Y(1)]\).
Se \(e(X, \alpha) = e(X)\) ou \(\mu_0(X, \beta_0) = \mu_1(X)\), então \(\tilde{\mu}_0^{DR} = \mathbb{E}[Y(0)]\).
Se \(e(X, \alpha) = e(X)\) ou \(\{ \mu_0(X, \beta_0), \mu_1(X, \beta_1) = \mu_1(X) \}\), então \(\tilde{\mu}_1^{DR} - \tilde{\mu}_0^{DR} = \tau\)
Pelo Teorem anterior, \[\tilde{\mu}_1^{DR} - \tilde{\mu}_0^{DR} = \tau,\] se ou o modelo de propensity score ou o modelo dos resultados estiver corretamente especificado (motivo pelo qual é chamado de Duplamente Robusto).
Demostração: (no quadro)
Estimador DR
A seguir, apresentamos as versões amostrais de \(\tilde{\mu}_0^{DR}\) e \(\tilde{\mu}_1^{DR}\).
Estimador
Baseados em \(\{X_i, Z_i, Y_i\}_{i = 1}^n\), podemos obter um estimador DR para \(\tau\) através dos seguintes passos:
Obter os valores ajustados do propensity score: \(e(X_i, \hat{\alpha})\).
Obter \(\mu_1(X_i, \hat{\beta}_1)\) e \(\mu_0(X_i, \hat{\beta}_0)\)
Reg IPW Hajek DR
Bias -0.06756789 0.1077739 -0.05767143 0.1441579
True Var 0.12494688 0.2606137 0.18246527 0.2630190
Estim Var 0.12725755 0.2407535 0.16386663 0.2357870
Exemplo
Exemplo
Exemplo
Dataset disponível aqui. Chang et al. (2016) estudam se a participação no programa da merenda nas escolas (School_meal) leva a um aumento no índice de massa muscular (BMI) das crianças. 12 outras covariáveis também estão disponíveis no dataset.
Code
dados <-read.csv("datasets/nhanes_bmi.csv")[, -1]z <- dados$School_mealy <- dados$BMIx <-scale(dados[, -c(1, 2)])causal_effetcs =OS_ATE(z, y, x, n_boot =1000)round(causal_effetcs, 3)
Reg IPW Hajek DR
Estim -0.017 -1.516 -0.156 -0.019
SE 0.220 0.484 0.242 0.223
Reg IPW Hajek DR
Estim -0.017 -0.713 -0.054 -0.043
SE 0.233 0.410 0.244 0.239
O estimador RD foi proposto por Scharfstein et al. (1999) mas recentemente ressucitado por Chernozhukov et al. (2018) com o nome de double machine learning. A ideia básica é substituir o modleo utilizado no propensity score e no modelo para o resultado, por modelo de aprendizado de máquina.
Referências
Peng Ding (2023). A First Course in Causal Inference. Capítulo 12.