2026年1月4日日曜日

因果推論と機械学習 その3

Meta-Learner; 「任意の汎用 ML モデル(回帰・分類器など)を部品として組み合わせ、因果効果(ATE/CATE など)を推定する“枠組み”」とのことですが、DR(Doubly Robust)、DML(Double / Debiased ML)等はこれに含めないそうです。いずれもMLを部品として組み合わせて CATE を推定しているのですが、図書を読んだだけではその差を理解できませんでした。

3. DR / DML 系、因果フォレスト

Learner

step

モデルNo.

説明変数

目的

変数

推定対象

DR

1

1a

1b

X (T=0)

X (T=1)

Y

Y

T-Learnerと同じ

 

 

1c

X

T

傾向スコア;e(X)

 

2

 

 

 

DR擬似効果の計算;(例)ṫ(X) = (μ₁(X) μ₀(X)) + [(T e(X)) / (e(X) * (1 e(X)))] * (Y μ_{T=T}(X))

 

3

2

X

(X)

CATE; τ(X) = E[(X)|X]

DML

1

1a

X

Y

Yの応答関数 μY(X) = E[Y|X]

 

 

1b

X

T

Tの応答関数 μT(X) = E[T|X]

 

2

 

 

 

残差を計算:εY= Y - μY(X), εT= T - μT(X)

 

3

2

εT

εY

CATE; τ(X)LinearDML ではεT の係数をτと解釈)

Causal Forest

1

1a
1b

X
X

Y
T

DMLと同じ

 

2

 

 

 

DMLと同じ

 

3

 

X, εT, εY

 

ランダムフォレストを使用して、各ノードで処置効果の異質性(分散)を最大化する分割を選択。ノードでの処置効果 = Σ(εY × εT) / Σ(εT²)

 

4

 

 

 

CATE; τ(X)(各特徴量Xの組み合わせに対して、局所的な処置効果を推定)

 

  • e(X)は「データからの比率」から求めるか、XT のモデルで推定(DR)。
  • DR:μ₀, μ₁, e を一つの式で混ぜた DR擬似効果 (X) を作り、それを1本の τ(X) モデルで学習。
  • DMLLinearDML):Y T X による予測で残差化し、残差同士を線形回帰して τ(X) を得る。

3つの中だとDMLが好みです。

0 件のコメント:

コメントを投稿