Meta-Learner; 「任意の汎用 ML モデル(回帰・分類器など)を部品として組み合わせ、因果効果(ATE/CATE など)を推定する“枠組み”」とのことですが、DR(Doubly Robust)、DML(Double / Debiased ML)等はこれに含めないそうです。いずれもMLを部品として組み合わせて CATE を推定しているのですが、図書を読んだだけではその差を理解できませんでした。
3. DR / DML 系、因果フォレスト
|
Learner |
step |
モデルNo. |
説明変数 |
目的 変数 |
推定対象 |
|
DR |
1 |
1a 1b |
X (T=0) X (T=1) |
Y Y |
T-Learnerと同じ |
|
|
|
1c |
X |
T |
傾向スコア;e(X) |
|
|
2 |
|
|
|
DR擬似効果の計算;(例)ṫ(X) = (μ₁(X) − μ₀(X))
+ [(T − e(X)) /
(e(X) * (1 − e(X)))] *
(Y − μ_{T=T}(X)) |
|
|
3 |
2 |
X |
ṫ(X) |
CATE; τ(X) = E[ṫ(X)|X] |
|
DML |
1 |
1a |
X |
Y |
Yの応答関数 μY(X) = E[Y|X] |
|
|
|
1b |
X |
T |
Tの応答関数 μT(X) = E[T|X] |
|
|
2 |
|
|
|
残差を計算:εY= Y - μY(X), εT= T - μT(X) |
|
|
3 |
2 |
εT |
εY |
CATE; τ(X)(LinearDML
ではεT の係数をτと解釈) |
|
Causal Forest |
1 |
1a |
X |
Y |
DMLと同じ |
|
|
2 |
|
|
|
DMLと同じ |
|
|
3 |
|
X, εT, εY |
|
ランダムフォレストを使用して、各ノードで処置効果の異質性(分散)を最大化する分割を選択。ノードでの処置効果 = Σ(εY × εT) / Σ(εT²) |
|
|
4 |
|
|
|
CATE; τ(X)(各特徴量Xの組み合わせに対して、局所的な処置効果を推定) |
- e(X)は「データからの比率」から求めるか、X→T のモデルで推定(DR)。
- DR:μ₀, μ₁, e を一つの式で混ぜた DR擬似効果 ṫ(X) を作り、それを1本の τ(X) モデルで学習。
- DML(LinearDML):Y
と T を X による予測で残差化し、残差同士を線形回帰して
τ(X) を得る。
3つの中だとDMLが好みです。
0 件のコメント:
コメントを投稿