Double ML과 DR Learner는 ML 기반 인과추론 방법론이다.

Double ML과 DR Learner는 ML 기반 인과추론 방법론이다.
Photo by Nathan Dumlao / Unsplash

Double ML: Residual on Residual Regression + Cross-Fitting

  • 통제 변수를 조정하여 잔차 회귀(Residual on Residual Regression)와 교차 적합(Cross-Fitting)을 결합하여 사용합니다.
  • 장점
    • 편향 감소: 잔차 회귀를 통해 통제 변수의 영향을 제거하여 인과 효과 추정의 편향을 줄입니다.
    • 일관성 보장: 교차 적합을 통해 과적합을 방지하고 추정의 일관성을 보장합니다.
    • 유연성: 다양한 기계 학습 모델과 함께 사용할 수 있어 다양한 데이터에 적용 가능합니다.
  • 단점
    • 복잡성 증가: 두 단계의 모델 학습과 교차 적합 과정으로 인해 복잡성이 증가합니다.
    • 계산 비용: 많은 데이터와 복잡한 모델을 사용할 경우 계산 비용이 높아질 수 있습니다.
  • 대안
    • DR Learner: 이중 견고 회귀(Doubly-Robust Regression)와 교차 적합을 결합하여 보다 강력한 추정을 제공합니다.
    • IV (Instrumental Variables): 도구 변수를 사용하여 내생성을 해결하는 방법입니다.

DR Learner: Doubly-Robust Regression + Cross-Fitting

  • 이중 견고 회귀(Doubly-Robust Regression)와 교차 적합(Cross-Fitting)을 결합하여 인과 효과를 추정하는 방법입니다.
  • 장점
    • 견고성: 두 가지 모델을 사용하여 하나의 모델이 잘못되어도 추정의 편향을 줄일 수 있습니다
    • 일관성 보장: 교차 적합을 통해 과적합을 방지하고 추정의 일관성을 보장합니다
    • 강력한 추정: 복잡한 데이터 구조에서도 인과 효과를 정확하게 추정할 수 있습니다.
  • 단점
    • 복잡성 증가: 두 가지 모델을 학습하고 교차 적합을 수행하는 과정이 복잡합니다.
    • 계산 비용: 많은 데이터와 복잡한 모델을 사용할 경우 계산 비용이 높아질 수 있습니다.
  • 대안
    • Double Machine Learning: 잔차 회귀와 교차 적합을 결합하여 편향을 줄이고 일관성을 보장합니다.
    • IPW (Inverse Probability Weighting): 처치 확률의 역수를 가중치로 사용하여 추정하는 방법입니다.

Sample

import numpy as np
import pandas as pd
from sklearn.linear_model import LinearRegression
from sklearn.model_selection import KFold

# 데이터 생성
np.random.seed(42)
n = 1000
X = np.random.normal(size=(n, 5))
T = np.random.binomial(1, 0.5, size=n)
Y = 2 * T + X[:, 0] + np.random.normal(size=n)

# Double ML 구현
kf = KFold(n_splits=5)

treatment_effects = []

for train_index, test_index in kf.split(X):
    X_train, X_test = X[train_index], X[test_index]
    T_train, T_test = T[train_index], T[test_index]
    Y_train, Y_test = Y[train_index], Y[test_index]
    
    # 잔차 회귀
    model_y = LinearRegression().fit(X_train, Y_train)
    model_t = LinearRegression().fit(X_train, T_train)
    
    Y_residual = Y_train - model_y.predict(X_train)
    T_residual = T_train - model_t.predict(X_train)
    
    # 잔차 회귀 모델 적합
    treatment_effect_model = LinearRegression().fit(T_residual.reshape(-1, 1), Y_residual)
    treatment_effect = treatment_effect_model.coef_[0]
    treatment_effects.append(treatment_effect)

print(f"Double ML Treatment effect: {np.mean(treatment_effects)}")

# DR Learner 구현
treatment_effects = []

for train_index, test_index in kf.split(X):
    X_train, X_test = X[train_index], X[test_index]
    T_train, T_test = T[train_index], T[test_index]
    Y_train, Y_test = Y[train_index], Y[test_index]
    
    # 결과 모델 및 처치 모델 학습
    model_y = LinearRegression().fit(X_train, Y_train)
    model_t = LinearRegression().fit(X_train, T_train)
    
    # 예측
    Y_hat = model_y.predict(X_test)
    T_hat = model_t.predict(X_test)
    
    # 이중 견고 회귀
    dr_model = LinearRegression().fit(T_test.reshape(-1, 1), Y_test - Y_hat + (T_test - T_hat) * treatment_effect)
    treatment_effect = dr_model.coef_[0]
    treatment_effects.append(treatment_effect)

print(f"DR Learner Treatment effect: {np.mean(treatment_effects)}")
Double ML Treatment effect: 2.1014653090054765
DR Learner Treatment effect: 8.318565053747836

Read more

내가 놓치고 있던 미래, 먼저 온 미래를 읽고

내가 놓치고 있던 미래, 먼저 온 미래를 읽고

장강명 작가의 책은, 유학시절 읽고 처음이었다. 유학시절 "한국이 싫어서"라는 책은 동기부여가 상당히 되는 책이었다. 한국을 떠나 새로운 정채성을 학생으로서 Build up 해나가고 있던 상황에서 이 책은 제목부터 꽤 솔깃하였다. 물론 결말이 기억날 정도로 인상깊은 책은 아니었지만 말이다. 그렇게 시간이 흘러 장강명 작가의 책은 더 이상 읽지 않던

By Bongho, Lee
고객 경험이란 무엇일까?

고객 경험이란 무엇일까?

고객경험이란 무엇일까? 1. 과거 어느 대형 프로젝트에서 있던 일이다. 신사업을 위해서 예측 모델 값을 제공해야 하는 상황이었다. 데이터도 없고,어느정도의 정확도를 제공해야 하는지 답이 없었다. 점추정을 할 것인가? 구간 추정을 할 것인가를 가지고 논의중이었다. Product Manager 줄기차게 고객경험을 내세우며 점추정으로 해야 한다고 주장하였다. 근거는 오롯이 "고객 경험"이었다.

By Bongho, Lee
수요예측, 수정구슬이 아닌 목표를 향한 냉정한 나침반

수요예측, 수정구슬이 아닌 목표를 향한 냉정한 나침반

수요예측의 정의와 비즈니스에서의 중요성 기업의 성장과 운영 효율화를 위해 **수요예측(Demand Forecasting)**은 선택이 아닌 필수 요소로 자리 잡았다. 많은 경영진들이 수요예측을 미래 판매량을 정확히 맞히는 '예언'으로 기대하지만, 이는 수요예측의 본질을 오해하는 것이다. 수요예측의 진짜 의미: 미래를 점치는 수정구슬이 아니라, 우리가 도달해야 할 '목표'를

By Bongho, Lee