Savje (2019) Causal inference with misspecified exposure mappings, Working paper.

Setup
  • Treatments:  \mathbf{z} = (z_1, \ldots, z_n) \in \Omega. ここでは  \Omega = \{0,1\}^n に限らず一般的なトリートメントを考える.
  • Potential outcome:  y_i: \Omega \to \mathbb{R}.  y_i(\mathbf{z}) is the response of  i when  \mathbf{Z} = \mathbf{z}
  • 確率変数  \mathbf{Z} の分布を"design"と呼ぶ. \mathbf{Z} のみを確率変数としてそれ以外は固定する = Design-based uncertainty*1

Exposure

  • Exposure mapping:  d_i: \Omega \to \Delta where  \Delta \subseteq \mathbb{N}. もし  d_i(\mathbf{z}) = d_i(\mathbf{z}') ならば  i にとって  \mathbf{z} \mathbf{z}' は"似たような"因果効果をもたらす.
  • Realized exposure:  D_i = d_i(\mathbf{Z}).ここで  \pi_i(d) = \Pr(D_i = d) とおく. \pi_i(d) > 0 を仮定.
  • Exposure mappingの特定化が正しい  \iff  (d_i(\mathbf{z}) = d_i(\mathbf{z}') \Rightarrow y_i(\mathbf{z}) = y_i(\mathbf{z}'))*2.したがって,この場合は  \tilde y_i(d_i(\mathbf{z})) = y_i(\mathbf{z}) を満たす  \tilde y_i : \Delta \to \mathbb{R} が存在する.
Exposure effects under misspecification
  • もしexposure mappingが誤っているならば上のような  \tilde y_i(\cdot) は存在しない.
  • ここで以下の  y_i'(d) を考える:

 y_i'(d) = \mathbb{E}[y_i(\mathbf{Z}) \mid D_i = d]

  • この  y_i'(\cdot) は本質的に  \tilde y_i(\cdot) と同様に解釈できる. \because 特定化が正しいならば, D_i = d_i(\mathbf{z})  \iff  d_i(\mathbf{Z}) = d_i(\mathbf{z})  \iff  y_i(\mathbf{Z}) = y_i(\mathbf{z}) = \tilde y_i(d_i(\mathbf{z})).
  •  y_i'(d) はすべてのpotential outcomeの加重平均になっている.各  \mathbf{z} に関するpotential outcomeの重みは  \Pr(\mathbf{Z} = \mathbf{z} \mid D_i = d), as in Leung (2020).
定義:Misspecification-robust exposure effect

 \displaystyle \tau(a, b) = \frac{1}{n}\sum_{i=1}^n\left(y'_i(a) - y'_i(b)\right) for  a,b \in \Delta.

定義:Specification error

 \epsilon_i = Y_i - y'_i(D_i) where  Y_i = y_i(\mathbf{Z}) (observed outcome)
  • 特定化が正しいと仮定することは  \epsilon_i = 0 を仮定することに等しい.
  • さらに以下を定義する:

 y'_{ij}(d,q) = \mathbb{E}\left[ y_i(\mathbf{Z}) \mid D_i = d, D_j = q\right]

 e_{ij}(d,q) = y'_{ij}(d,q) - y'_i(d)

 u_{ij} = Y_i - y'_{ij}(D_i, D_j)

これらの解釈については論文Sec. 3.5参照.

Point estimation

Horvitz-Thompson estimator:

 \displaystyle \hat \tau(a,b) = \frac{1}{n}\sum_{i = 1}^n \frac{\mathbf{1}\{D_i = a\}Y_i}{\pi_i(a)} - \frac{1}{n}\sum_{i = 1}^n \frac{\mathbf{1}\{D_i = b\}Y_i}{\pi_i(b)}

  • Proposition 1:  \mathbb{E}(\hat \tau(a,b)) = \tau(a,b)
  • Asymptotic regime:

 \ldots considers a sequence of fixed samples indexed by  n.  \ldots The regime differs from the conventional setup in that the sample is fixed and no population exists in the usual sense.  \ldots A consequence is that the samples need not be related in any specific way, and no assumptions about iid sampling  \ldots are needed.

  • つまり,サイズ  n の固定されたサンプルがそれぞれ存在すると考える.したがって,各サンプル間に特に関係性はないし,通常の意味での母集団も存在しない.
Proposition 3 (Consistency):

 \displaystyle \hat \tau(a,b) - \tau(a,b) = O_P\left( n^{-1/2} + C_a^{1/2} + C_b^{1/2} + E_a^{1/2} + E_b^{1/2} + U_a^{1/2} + U_b^{1/2} \right)

where

 \displaystyle C_d = \frac{1}{n^2} \sum_{i=1}^n \sum_{j \neq i}|Cov(\mathbf{1}\{D_i = d\}, \mathbf{1}\{D_j = d\})|

 \displaystyle E_d = \frac{1}{n^2} \sum_{i=1}^n \sum_{j \neq i}e_{ij}(d,d)e_{ji}(d,d)

 \displaystyle U_d = \frac{1}{n^2} \sum_{i=1}^n \sum_{j \neq i}Cov(u_{ij}, u_{ji} \mid D_i = D_j = d)

  • 直感的には, i j の距離(path length)が離れるほど独立に近づくのであれば  C_d, \; E_d, \; U_d は小さくなりそう  \Longrightarrow Leung (2020) 
  • 極限分布の特徴づけは明示的には行われていない(少なくともこのバージョンでは)
  • Hajek推定量やDR(-like)推定量も考察している.いずれもHorvitz-Thompsonと同様の結果.

*1:Leung (2020) と同様.

*2:Aronow and Samii (2017) AoASはこれを"properly specified exposure mappings"と呼んでいる