Paper慢慢讀 - Learning Triggers for Heterogeneous Treatment Effects

這篇論文是在 Recursive Partitioning for Heterogeneous Casual Effects 的基礎上加入了兩個新元素:html

  • Trigger:對不一樣羣體的treatment選擇個性化閾值。 E.g優惠券力度,紅包金額
  • 新的Node Penalty: 旨在加強模型generalization

論文

C. Tran and E. Zheleva, 「Learning triggers for heterogeneous treatment effects,」 in Proceedings of the AAAI Conference on Artificial Intelligence, 2019node

模型

Trigger

Trigger的計算主要用在treatment是一個潛在連續變量,例如服藥的劑量,優惠券的金額等等。這時實驗但願獲得的不只是優惠券是否能提高用戶留存,並且是對哪些用戶使用多少金額的優惠券能最大化ROI。
做者在經過樹劃分用戶羣的同時計算可以使該用戶羣CATE最大化的Trigger閾值。既在遍歷全部特徵可能取值的同時遍歷全部treatment的可能取值,取jointly的最優解。以下
\[ \begin{align} T = {t_i}&\quad \text{treatment的全部可能取值}\\ \theta_l &\quad \text{最優treatment閾值}\\ F^t(S_l) &= max_{\theta_l}F(S_l)\\ \end{align} \]函數

小思考
感受這裏對最佳trigger的選擇還有優化的空間。由於上述split假定了實驗效果對treatment的取值是單調的,若是不單調上述split可能獲得不make sense的結果。並且在一些應用場景下是但願取到有條件最優解,例如在成本不超過N的狀況下收益越高越好,而不是簡單的最大化實驗效果,這個當前也還沒法解決。優化

Node Penalty

在Athey(2016)的Casual Tree中,做者經過在Cost Functino中加入葉節點方差,以及用驗證集估計CATE的方式來解決決策樹過擬合的問題。這裏Tran提出的新的penalty旨在衡量相同節點訓練集和驗證機在CATE估計上的差別。spa

咱們先回顧一下要用到的Notation
\[ \begin{align} & {(X_i, Y_i,T_i): X_i \in X} \\ & \text{where X是特徵,Y是Response,T是AB實驗分組}\\ &T_i \in {0,1} \quad \\ &Y_i = \begin{cases} Y(1) & \quad T_i = 0\\ Y(0) & \quad T_i = 1\\ \end{cases}\\ &CATE: \tau(x) = E(Y_i(1)-Y_i(0)|X=x)\\ \end{align} \]
如下是Athey(2016) Casual Tree的定義
\[ \begin{align} &S_l = {(X_i, Y_i,T_i): X_i \in X_l} \quad \text{葉節點-局部樣本}\\ &\hat{\mu_t}(S_l) = \frac{1}{N_{l,t}}\sum_{T_i=t, i \in S_l}Y_i \quad \text{AB組Y的均值} \\ &\hat{\tau}(S_l) = \hat{\mu_1}(S_l) -\hat{\mu_0}(S_l) \quad \text{葉節點CATE}\\ &F(S_l) = N_l * \hat{\tau}^2(S_l)\\ & \text{cost fucntion}: max \sum_{i=1}^L F(S_i)\\ \end{align} \]htm

做者先把全樣本切分紅train, val和test。 用訓練集來建樹, 用test來估計葉節點variance,penalize小的葉結點帶來的高方差,而後用葉節點上train和val的差別來penalize損失函數,如下\(\lambda\)控制penalty的大小:
\[ \begin{align} &penalty = N_L^{val} * |\hat{\tau}(S_l^{val}) -\hat{\tau}(S_l^{train}) | \\ &cost = \frac{(1-\lambda)F(S_l^{train}) - \lambda * penalty}{|N_l^{train} - N_l^{val}| +1}\\ \end{align} \]blog

小思考
各式各樣解決over-fitting的方法不能說沒有用,但我的認爲最終經過Casual Tree獲得的特徵和特徵取值,仍是要依據業務邏輯來進行驗證。以及在不一樣的樣本集上極可能特徵取值的變更要超過over-fitting的影響。因此主觀判斷在這裏也很重要ci

其餘相關模型詳見AB實驗的高端玩法系列1-實用HTE論文GitHub收藏get

歡迎留言~it

相關文章
相關標籤/搜索