<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>統計的因果推論 - まったり勉強ノート</title>
	<atom:link href="https://www.mattari-benkyo-note.com/tag/%E7%B5%B1%E8%A8%88%E7%9A%84%E5%9B%A0%E6%9E%9C%E6%8E%A8%E8%AB%96/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.mattari-benkyo-note.com</link>
	<description>shuの日々の勉強まとめ</description>
	<lastBuildDate>Mon, 27 Feb 2023 21:25:27 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.3</generator>
<site xmlns="com-wordpress:feed-additions:1">189243286</site>	<item>
		<title>[勉強ノート] 入門 統計的因果推論 反事実における直接効果と間接効果、媒介公式の導出 (4.5.2 媒介についてのツール)</title>
		<link>https://www.mattari-benkyo-note.com/2023/01/17/causal-inference-in-statistics-a-primer-4-5-2/</link>
					<comments>https://www.mattari-benkyo-note.com/2023/01/17/causal-inference-in-statistics-a-primer-4-5-2/#respond</comments>
		
		<dc:creator><![CDATA[Shuji Suzuki (shu)]]></dc:creator>
		<pubDate>Mon, 16 Jan 2023 21:08:14 +0000</pubDate>
				<category><![CDATA[未分類]]></category>
		<category><![CDATA[統計的因果推論]]></category>
		<guid isPermaLink="false">https://www.mattari-benkyo-note.com/?p=1660</guid>

					<description><![CDATA[<p>今回の記事は入門 統計的因果推論 の4.5.2に書かれている「反事実における直接効果と間接効果の定義」、「自然な効果を識別するための条件」を中心にここで説明されている直接効果、間接効果の定義からdo演算子を使わない媒介公 [&#8230;]</p>
<p>The post <a href="https://www.mattari-benkyo-note.com/2023/01/17/causal-inference-in-statistics-a-primer-4-5-2/">[勉強ノート] 入門 統計的因果推論 反事実における直接効果と間接効果、媒介公式の導出 (4.5.2 媒介についてのツール)</a> first appeared on <a href="https://www.mattari-benkyo-note.com">まったり勉強ノート</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>今回の記事は<a href="https://www.amazon.co.jp/%E5%85%A5%E9%96%80-%E7%B5%B1%E8%A8%88%E7%9A%84%E5%9B%A0%E6%9E%9C%E6%8E%A8%E8%AB%96-Judea-Pearl/dp/4254122411">入門 統計的因果推論</a> の4.5.2に書かれている「反事実における直接効果と間接効果の定義」、「自然な効果を識別するための条件」を中心にここで説明されている直接効果、間接効果の定義からdo演算子を使わない媒介公式などの式の導出について説明していきます。</p>



<p>この部分も私はぱっと読んで意味がわからなくて苦労した点なので、自分であとで見返してもわかるように丁寧な説明を心がけて書いていこうと思います。</p>



<h2 class="wp-block-heading">想定する因果グラフ</h2>



<p>この記事で想定している因果グラフは以下の通りです。</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img fetchpriority="high" decoding="async" width="670" height="435" src="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/graph.png" alt="" class="wp-image-1743" srcset="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/graph.png 670w, https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/graph-300x195.png 300w" sizes="(max-width: 670px) 100vw, 670px" /><figcaption class="wp-element-caption">因果グラフ</figcaption></figure></div>


<p>本では媒介公式の式導出の部分（自然な効果を識別するための条件の節）で\(W\)として抽象的な変数を使ってまとめています。この記事でも基本同様に\(W\)でまとめていますが、この因果グラフでは\(W_1, W_2, W_3\)と具体的にして分けています。</p>



<h2 class="wp-block-heading">直接効果と間接効果の定義</h2>



<p>まずはこれらの定義がどういうものかを見ていきます。本に書かれている定義は以下の通りです。</p>



<h3 class="wp-block-heading">総合効果TE (total effect)</h3>



<p>$$ \begin{align*}<br>TE &amp;= E[Y_1 &#8211; Y_0] \\<br>&amp;=E[Y|do(T=1) &#8211; E[Y|do(T=0)]]\tag{4.44}<br>\end{align*} $$</p>



<p>ここで\(Y_x\)は本ででてくる表記で\(X=x\)の場合の\(Y\)を\(Y_x\)ということを表しています。具体的には本の4.1の「反事実」の例で下道を使った場合とフリーウェイを使った場合の運転時間の例で説明します。このとき、フリーフェイを使うケースを\(T=1\)とするとこの時の運転時間\(Y\)を\(Y_{T=1}\)、\(T\)が自明な時は\(Y_1\)ということを表しています。一方、下道を使った場合\(T=0\)の運転時間は\(Y_{T=0}\)または\(Y_0\)です。</p>



<p>このTEは処置\(T=0\)から\(T=1\)へ変化したときの\(Y\)の増加量です。重要な点として媒介変数\(M\)は\(T\)が変化するにつれて変化します。</p>



<h3 class="wp-block-heading">制御された直接効果CDE (controlled direct effect)</h3>



<p>$$ \begin{align*}<br>CDE(m) &amp;= E[Y_{1,m} &#8211; Y_{0,m}] \\<br>&amp;=E[Y|do(T=1, M=m)] &#8211; E[Y|do(T=0, M=m)]\tag{4.45}<br>\end{align*} $$</p>



<p>\(Y_{1,m}\)の部分は省略されていますが、\(Y_{T=1, M=m}\)の意味です。基本的には統合効果のときに説明したときとほぼ同じで、ここでは\(T\)だけでなく\(M\)についても固定した状態の\(Y\)の値を示しています。</p>



<p>このCDEは処置\(T=0\)から\(T=1\)への変化したときのYの増加量の期待値ですが、重要な点として媒介変数\(M\)は\(M=m\)で一律に設定されています。</p>



<h3 class="wp-block-heading">自然な直接効果NDE (natural direct effect)</h3>



<p>$$ \begin{align*}<br>NDE &amp;= E[Y_{1,M_0} &#8211; Y_{0,M_0}] \tag{4.46}<br>\end{align*} $$</p>



<p>このNDEは処置が\(T=0\)から\(T=1\)へ変化したときの\(Y\)の増加量の期待値ですが、重要な点として媒介変数は変化前の状態、つまりT=0においてそれぞれの個体がとったであろう値(\(M_0\))に固定されています。この\(M_0\)は\(M_{T=0}\)を表していて、\(M\)が\(T=0\)のときの値を示しています。この媒介変数の値が一律で固定されているケースがCDEで、変化前の状態で個別にとったであろう値に固定されているのがNDEになります。</p>



<h3 class="wp-block-heading">自然な間接効果NIE (natural indirect effect)</h3>



<p>$$ \begin{align*}<br>NIE &amp;= E[Y_{0,M_1} &#8211; Y_{0,M_0}] \tag{4.47}<br>\end{align*} $$</p>



<p>このNIEでは処置が\(T=0\)で固定されているときのYの増加量の期待値です。このとき媒介変数\(M\)は\(T=1\)においてそれぞれの個体がとったであろう値に変化させます。よって、\(Y\)が\(T\)で反応しないようにしたうえで媒介変数によって変化する量を表しています。</p>



<h2 class="wp-block-heading">NDEとNIEを識別する十分条件 (自然な効果を識別するための条件)</h2>



<p>先ほどのNDEとNIEまで計算するための十分条件として本には以下のように書かれています。</p>



<ol class="wp-block-list">
<li>\(W\) の要素(最初の因果グラフでは\(W_1, W_2, W_3\))には\(T\)の子孫が一つもない</li>



<li>\(W\) は(\(T\rightarrow M\)と\(T\rightarrow Y\)を除いた)\(M\)から\(Y\)へのバックドアパスをすべてブロックする</li>



<li>\(T\)から\(M\)への特定\(W\)同時効果は(おそらく実験か調整により)識別可能である</li>



<li>\(\{T, M\}\)から\(Y\)への特定\(W\)同時効果は(おそらく実験か調整により)識別可能である</li>
</ol>



<p>ここで\(W\)は因果グラフにおける\(\{W_1, W_2, W_3\}\)をまとめた変数になります。</p>



<p>これらの条件は言葉で言わんとしていることはわかるきがしますが、これを使って私はNDEとNIEの媒介公式を導出できるきがしませんでした。このため、別の表現がないかな？ということで探すと、別の論文[1]に別の表現の条件が書かれていたので今回はこの条件を使って証明していきます。</p>



<p>まず、一致性 (consistency assumption) と構成性 (composition assumption)という以下の仮定が成り立つとします。</p>



<ul class="wp-block-list">
<li>一致性: \(T=t\)と\(M=m\)が条件付けされたとき\(Y=Y_{t, m}\)が成り立つ。同様に\(T=t\)が条件付けされたとき\(M=M_t\)が成り立つ</li>



<li>構成性: \(T=t\)が条件付けされたとき\(Y(t) = Y_{t, M(t)}\)が成り立つ</li>
</ul>



<p>そしてNDEとNIEが識別可能とする十分条件として以下のものがあるとしています。</p>



<p>$$ \begin{align*}<br>Y_{t, m} &amp; \perp\kern-5pt\perp T \mid W &amp; \forall t, m \tag{A-1} \\<br>Y_{t, m} &amp; \perp\kern-5pt\perp M \mid T, W &amp; \forall t, m \tag{A-2} \\<br>M_t &amp; \perp\kern-5pt\perp T \mid W &amp; \forall t \tag{A-3} \\<br>Y_{t, m} &amp; \perp\kern-5pt\perp M_{t^{\star}} \mid W &amp; \forall t, t^{\star}, m \tag{A-4} \\<br>\end{align*} $$</p>



<p>変数に関しては今回の因果グラフに合わせて元論文から変更しています。</p>



<h2 class="wp-block-heading">各効果の定義から式変形していく</h2>



<p>ここから本では省略されている式変形をしていって、観測データから計算できる形に式を持っていきたいと思います。定義では期待値の形で書かれていますが、確率がわかれば十分だと思うので、確率の形で式変形していきます。TEに関しては３章で示されているdo演算子を使った場合の式変形を行えば目的の式まで変形できますが、他の効果の定義に合わせて先ほどの仮定と条件を使って式変形していきます。</p>



<p>ちなみに３章で示されているdo演算子を使った場合の式変形はこちらで詳しく書いていますので気になる方は見てください。</p>



<figure class="wp-block-embed is-type-wp-embed is-provider-まったり勉強ノート wp-block-embed-まったり勉強ノート"><div class="wp-block-embed__wrapper">
<blockquote class="wp-embedded-content" data-secret="qNslsOgKlm"><a href="https://www.mattari-benkyo-note.com/2023/01/12/causal-inference-in-statistics-a-primer-chapter-3/">[勉強ノート] 入門 統計的因果推論 3章 介入効果　</a></blockquote><iframe class="wp-embedded-content" sandbox="allow-scripts" security="restricted"  title="&#8220;[勉強ノート] 入門 統計的因果推論 3章 介入効果　&#8221; &#8212; まったり勉強ノート" src="https://www.mattari-benkyo-note.com/2023/01/12/causal-inference-in-statistics-a-primer-chapter-3/embed/#?secret=YYmXEzwfEY#?secret=qNslsOgKlm" data-secret="qNslsOgKlm" width="600" height="338" frameborder="0" marginwidth="0" marginheight="0" scrolling="no"></iframe>
</div></figure>



<h3 class="wp-block-heading">TE</h3>



<p>TEの定義は以下の通りです。</p>



<p>$$ \begin{align*}<br>TE &amp;= E[Y_1 &#8211; Y_0] \\<br>&amp;=E[Y|do(T=1)] &#8211; E[Y|do(T=0)]]\tag{4.44}<br>\end{align*} $$</p>



<p>ここで\(P(Y|do(X))\)からdo演算子のない形にするというのでもいいのですが、先ほどの仮定と条件を使うために\(Y_1, Y_0\)から式変形していきます。ここで\(Y_1, Y_0\)をまとめて\(Y_t\)として計算していきます。</p>



<p>最終的には以下のような式になることを示します。</p>



<p>$$ \begin{align*}<br>P(Y_t) &amp;= \sum_w P(Y|T=t, W=w)P(W=w) \tag{4.44.1}<br>\end{align*} $$</p>



<p>まず、構成性から以下の式に変形できます。</p>



<p>$$ \begin{align*}<br>P(Y_t) &amp;= P(Y_{t, M_t}) \tag{4.44.2}<br>\end{align*} $$</p>



<p>ここで、確率の周辺化で以下の式が成り立つことを利用します。</p>



<p>$$ \begin{align*} <br>P(Y) =&amp; \sum_x P(Y, X=x) \tag{4.44.3} \\<br>\end{align*} $$</p>



<p><br>この周辺化の式を使って\(W\)と\(M_t\)の同時確率の式に変形します。そして、その後、\(W\)と\(M_t\)の条件つき確率の形にもっていきます。</p>



<p>$$ \begin{align*}<br>P(Y_t) =&amp; P(Y_{t, M_t}) \\<br>=&amp; \sum_w P(Y_{t, M_t}, W=w) \\<br>=&amp; \sum_w \sum_m P(Y_{t, M_t}, M_t=m, W=w) \\<br>=&amp; \sum_w \sum_m P(Y_{t, M_t}, M_t=m|W=w)P(W=w) \\<br>=&amp; \sum_w \sum_m P(Y_{t, M_t}| M_t=m, W=w)\\<br>&amp; \qquad P(M_t=m|W=w)P(W=w) \tag{4.44.4}<br>\end{align*} $$</p>



<p>ここで\(M_t=m\)を利用すると以下のように変形できます。</p>



<p>$$ \begin{align*}<br>P(Y_{t, M_t}| M_t=m, W=w) &amp;= P(Y_{t, m}| M_t=m, W=w) \tag{4.44.5}<br>\end{align*} $$</p>



<p>次に十分条件の中のA-1を利用すると式(4.44.5)は\(T=t\)を使った条件付き確率に変形できます。</p>



<p>$$ \begin{align*}<br>P(Y_{t, m}| M_t=m, W=w) &amp;= P(Y_{t, m}| M_t=m, T=t, W=w) \tag{4.44.6}<br>\end{align*} $$</p>



<p>そして一致性を使うと\(P(Y_{t, m}| M_t=m, W=w)\)は以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y_{t, m}| M_t=m, T=t, W=w) &amp;= P(Y| M_t=m, T=t, W=w) \tag{4.44.7}<br>\end{align*} $$</p>



<p>よって式(4.44.5)から(4.44.7)を利用すると式(4.44.4)は以下のように変形できます。</p>



<p>$$ \begin{align*}<br>P(Y_t) =&amp; \sum_w \sum_m P(Y_{t, M_t}| M_t=m, W=w) \\<br>&amp; \qquad P(M_t=m|W=w)P(W=w) \\<br>=&amp; \sum_w \sum_m P(Y_{t, m}| M_t=m, W=w) \\<br>&amp; \qquad P(M_t=m|W=w)P(W=w) \\<br>=&amp; \sum_w \sum_m P(Y_{t, m}| M_t=m, T=t, W=w)\\<br>&amp; \qquad P(M_t=m|W=w)P(W=w) \\<br>=&amp; \sum_w \sum_m P(Y| M_t=m, T=t, W=w)\\<br>&amp; \qquad P(M_t=m|W=w)P(W=w) \tag{4.44.8}<br>\end{align*} $$</p>



<p>最後に\(M_t=m\)の条件付き確率を同時確率の形に戻して、周辺化を適用して\(M_t=m\)の部分を取り除くと以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y_t) =&amp; \sum_w \sum_m P(Y| M_t=m, T=t, W=w)\\<br>&amp; \qquad P(M_t=m|W=w)P(W=w) \\<br>=&amp; \sum_w \sum_m P(Y, M_t=m| T=t, W=w)P(W=w) \\<br>=&amp; \sum_w P(Y| T=t, W=w)P(W=w) \tag{4.44.9}<br>\end{align*} $$</p>



<p>これで求めたい式(4.44.1)が導出できました。</p>



<h3 class="wp-block-heading">CDE</h3>



<p>次にCDEについても式変形していきます。CDEの定義は以下の通りです。</p>



<p>$$ \begin{align*}<br>CDE(m) &amp;= E[Y_{1,m} &#8211; Y_{0,m}] \\<br>&amp;=E[Y|do(T=1, M=m)] &#8211; E[Y|do(T=0, M=m)]\tag{4.45}<br>\end{align*} $$</p>



<p>これをTEのときと同じようにdo演算子がない状態に\(Y_{1,m}\)と\(Y_{0,m}\)を式変形していきたいと思います。\(Y_{1,m}\)と\(Y_{0,m}\)をまとめて\(Y_{t,m}\)という形で式変形していきます。</p>



<p>CDEの場合は最終的に以下の式の導出を目指します。</p>



<p>$$ \begin{align*}<br>P(Y_{t,m}) &amp;= \sum_w P(Y|M=m, T=t, W=w)P(W=w) \tag{4.45.1}<br>\end{align*} $$</p>



<p>それでは\(P(Y_{t,m})\)を周辺化の式を使って\(W\)の同時確率の形にして、その後\(W\)の条件付き確率の形にします。</p>



<p>$$ \begin{align*}<br>P(Y_{t,m}) &amp;= \sum_w P(Y_{t,m}, W=w) \\<br>&amp;= \sum_w P(Y_{t,m}|W=w)P(W=w)\tag{4.45.2}<br>\end{align*} $$</p>



<p>次に\(P(Y_{t,m}|W=w)\)に注目するとA-1の条件から\(W\)が与えられると\(Y_{t,m}\)と\(T\)は独立なため、\(P(Y_{t,m}|W=w)\)を\(T=t\)の条件付き確率にできます。</p>



<p>$$ \begin{align*}<br>P(Y_{t,m}|W=w) &amp;= P(Y_{t,m}|T=t, W=w) \tag{4.45.3}<br>\end{align*} $$</p>



<p>さらにA-2の条件から\(W\)と\(T\)が与えられると\(Y_{t,m}\)と\(M\)は独立なため、\(P(Y_{t,m}|T=t, W=w)\)を\(M=m\)の条件付き確率にできます。</p>



<p>$$ \begin{align*}<br>P(Y_{t,m}|T=t, W=w) &amp;= P(Y_{t,m}|M=m, T=t, W=w) \tag{4.45.4}<br>\end{align*} $$</p>



<p>ここで一致性から以下のように変形できます。</p>



<p>$$ \begin{align*}<br>P(Y_{t,m}|M=m, T=t, W=w) &amp;= P(Y|M=m, T=t, W=w)\tag{4.45.5}<br>\end{align*} $$</p>



<p>最後に式(4.45.2)を式(4.45.3)から式(4.45.5)を利用して変形していきます。</p>



<p>$$ \begin{align*}<br>P(Y_{t,m}) &amp;= \sum_w P(Y_{t,m}, W=w) \\<br>&amp;= \sum_w P(Y_{t,m}|W=w)P(W=w) \\<br>&amp;= \sum_w P(Y_{t,m}|T=t, W=w)P(W=w) \\<br>&amp;= \sum_w P(Y_{t,m}|M=m, T=t, W=w)P(W=w) \\<br>&amp;= \sum_w P(Y|M=m, T=t, W=w)P(W=w) \tag{4.45.6}<br>\end{align*} $$</p>



<p>以上でCDEのほうも導出することができました。</p>



<h3 class="wp-block-heading">NDEとNIE</h3>



<p>最後にNDEとNIEです。それぞれ以下のような定義になっています。</p>



<p>$$ \begin{align*}<br>NDE &amp;= E[Y_{1,M_0} &#8211; Y_{0,M_0}] \tag{4.46} \\<br>NIE &amp;= E[Y_{0,M_1} &#8211; Y_{0,M_0}] \tag{4.47} \\<br>\end{align*} $$</p>



<p>これは\(Y_{1,M_0}, Y_{0,M_0}, Y_{0,M_1}, Y_{0,M_0}\)の４種類の確率が分かればよいことがわかります。これらの変数をまとめて\(Y_{t_y,M_{t_m}}\)としてこの後まとめて式変形していきます。最終的には以下の式に変形することを目指します。</p>



<p>$$ \begin{align*}<br>P(Y_{t_y,M_{t_m}}) =&amp; \sum_w \sum_m P(Y|M=m, T=t_y, W=w)\\<br>&amp; \qquad P(M|T=t_m, W=w)P(W=w) \tag{4.46.1}<br>\end{align*} $$</p>



<p>まずは\(W\)の同時確率の形にして、その後\(W\)の条件付き確率の形に変形します。</p>



<p>$$ \begin{align*}<br>P(Y_{t_y,M_{t_m}}) &amp;= \sum_w P(Y_{t_y,M_{t_m}}, W=w) \\<br>&amp;= \sum_w P(Y_{t_y,M_{t_m}}|W=w)P(W=w) \tag{4.46.2}<br>\end{align*} $$</p>



<p>次に\(P(Y_{t_y,M_{t_m}}|W=w)\)の部分に注目して\(M_{t_m}\)に関しても同様に周辺確率の形にしてその後\(M_{t_m}\)の条件付き確率の形に変形します。</p>



<p>$$ \begin{align*}<br>P(Y_{t_y,M_{t_m}}|W=w) &amp;= \sum_m P(Y_{t_y,M_{t_m}}, M_{t_m}=m|W) \\<br>&amp;= \sum_m P(Y_{t_y,M_{t_m}}|M_{t_m}=m, W=w)P(M_{t_m}=m|W) \tag{4.46.3}<br>\end{align*} $$</p>



<p>ここで\(M_{t_m}=m\)を利用すると以下のように変形できます。</p>



<p>$$ \begin{align*}<br>P(Y_{t_y,M_{t_m}}|W=w) &amp;= \sum_m P(Y_{t_y,M_{t_m}}|M_{t_m}=m, W=w)P(M_{t_m}=m|W) \\<br>&amp;= \sum_m P(Y_{t_y,m}|M_{t_m}=m, W=w)P(M_{t_m}=m|W) \tag{4.46.4}<br>\end{align*} $$</p>



<p>ここから\(P(M_{t_m}|W)\)の部分の式変形をしていきます。十分条件のA-3から\(W\)が条件付けされたとき、\(M_t\)と\(T\)は独立なので以下が成り立ちます。</p>



<p>$$ \begin{align*}<br>P(M_{t_m}|W) &amp;= P(M_{t_m}|T=t_m, W) \tag{4.46.5}<br>\end{align*} $$</p>



<p>そして一致性から以下のようになります。</p>



<p>$$ \begin{align*}<br>P(M_{t_m}|W) &amp;= P(M_{t_m}|T=t_m, W) \\<br>&amp;= P(M|T=t_m, W) \tag{4.46.6}<br>\end{align*} $$</p>



<p>次に式(4.46.4)の\(P(Y_{t_y,m}|M_{t_m}=m, W)\)も式変形していきます。十分条件のA-4を利用すると\(W\)が条件付けされたとき、\(Y_{t_y,m}\)と\(M_{t_m}\)は独立なので以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y_{t_y,m}|M_{t_m}=m, W) &amp;= P(Y_{t_y,m}|W) \tag{4.46.7}<br>\end{align*} $$</p>



<p>そして十分条件のA-1を使うと\(W\)が条件付けされたとき、\(Y_{t_y,m}\)と\(T\)は独立なので以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y_{t_y,m}|W=w) &amp;= P(Y_{t_y,m}|T=t_y, W) \tag{4.46.8}<br>\end{align*} $$</p>



<p>同様に十分条件のA-2を使うと\(T\)と\(W\)が条件付けされたとき、\(Y_{t_y,m}\)と\(M\)は独立なので以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y_{t_y,m}|T=t_y, W) &amp;= P(Y_{t_y,m}|M=m, T=t_y, W)\tag{4.46.9}<br>\end{align*} $$</p>



<p>ここで一致性から以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y_{t_y,m}|M=m, T=t_y, W) &amp;= P(Y|M=m, T=t_y, W) \tag{4.46.10}<br>\end{align*} $$</p>



<p>式(4.46.7)から(4.46.10)までを利用すると最終的に以下のような関係が成り立ちます。</p>



<p>$$ \begin{align*}<br>P(Y_{t_y,m}|M_{t_m}=m, W) &amp;= P(Y|M=m, T=t_y, W) \tag{4.46.11}<br>\end{align*} $$</p>



<p>式(4.46.6)と式(4.46.11)を使うと式(4.46.4)は以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y_{t_y,M_{t_m}}|W=w) =&amp; \sum_m P(Y_{t_y,M_{t_m}}|M_{t_m}=m, W=w)\\<br>&amp; \qquad P(M_{t_m}=m|W) \\<br>=&amp; \sum_m P(Y_{t_y,m}|M_{t_m}=m, W=w)\\<br>&amp; \qquad P(M|T=t_m, W) \\<br>=&amp; \sum_m P(Y|M=m, T=t_y, W)\\<br>&amp; \qquad P(M|T=t_m, W) \tag{4.46.12}<br>\end{align*} $$</p>



<p>最終的に式(4.46.12)を使うと式(4.46.2)は以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y_{t_y,M_{t_m}}) =&amp; \sum_w P(Y_{t_y,M_{t_m}}, W=w) \\<br>=&amp; \sum_w P(Y_{t_y,M_{t_m}}|W=w)P(W=w) \\<br>=&amp; \sum_w \sum_m P(Y|M=m, T=t_y, W=w)\\<br>&amp; \qquad P(M|T=t_m, W=w)P(W=w) \tag{4.46.13}<br>\end{align*} $$</p>



<p>これで求めたい式(4.46.1)の導出ができました。</p>



<h2 class="wp-block-heading">終わりに</h2>



<p>今回の記事は入門 統計的因果推論 の4.5.2に書かれているTE, CDE, NDE, NIEについて式変形をしていきました。一度理解してblogにかけそうと思ってからいざ書き始めたら、blogの記事を書く中でところどころ自分の理解が甘い部分が発見できました。このためblogの記事を書くことで自分の理解の再確認ができて非常に有意義でした。</p>



<p>他にもわからない部分がいくつかまだあるので、機会があれば勉強のために記事にしていきたいと思います。</p>



<h2 class="wp-block-heading">参考文献</h2>



<ol class="wp-block-list">
<li>VanderWeele, Tyler J. and Stijn Vansteelandt. “Conceptual issues concerning mediation, interventions and composition.”&nbsp;<em>Statistics and Its Interface</em>&nbsp;2 (2009): 457-468.</li>



<li></li>
</ol>



<p></p><p>The post <a href="https://www.mattari-benkyo-note.com/2023/01/17/causal-inference-in-statistics-a-primer-4-5-2/">[勉強ノート] 入門 統計的因果推論 反事実における直接効果と間接効果、媒介公式の導出 (4.5.2 媒介についてのツール)</a> first appeared on <a href="https://www.mattari-benkyo-note.com">まったり勉強ノート</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://www.mattari-benkyo-note.com/2023/01/17/causal-inference-in-statistics-a-primer-4-5-2/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">1660</post-id>	</item>
		<item>
		<title>[勉強ノート] 入門 統計的因果推論 3章 介入効果　</title>
		<link>https://www.mattari-benkyo-note.com/2023/01/12/causal-inference-in-statistics-a-primer-chapter-3/</link>
					<comments>https://www.mattari-benkyo-note.com/2023/01/12/causal-inference-in-statistics-a-primer-chapter-3/#respond</comments>
		
		<dc:creator><![CDATA[Shuji Suzuki (shu)]]></dc:creator>
		<pubDate>Wed, 11 Jan 2023 23:04:46 +0000</pubDate>
				<category><![CDATA[未分類]]></category>
		<category><![CDATA[統計的因果推論]]></category>
		<guid isPermaLink="false">https://www.mattari-benkyo-note.com/?p=1538</guid>

					<description><![CDATA[<p>今回の記事は入門 統計的因果推論 の３章の部分の数式の変形等、ぱっと読んで分かりづらくて時間をかけて考えてしまった点を中心にあとから自分で見返してわかるように数式の変形を説明した記事になります。 前提として「入門 統計的 [&#8230;]</p>
<p>The post <a href="https://www.mattari-benkyo-note.com/2023/01/12/causal-inference-in-statistics-a-primer-chapter-3/">[勉強ノート] 入門 統計的因果推論 3章 介入効果　</a> first appeared on <a href="https://www.mattari-benkyo-note.com">まったり勉強ノート</a>.</p>]]></description>
										<content:encoded><![CDATA[<p>今回の記事は<a href="https://amzn.to/3kALySA" target="_blank" rel="noopener" title="">入門 統計的因果推論</a> の３章の部分の数式の変形等、ぱっと読んで分かりづらくて時間をかけて考えてしまった点を中心にあとから自分で見返してわかるように数式の変形を説明した記事になります。</p>



<p>前提として「入門 統計的因果推論」で事前に説明された用語に関して、わかりやすくて説明が不要な部分は説明せずに使っているので、この記事だけではおそらく内容がわからない部分もあるかもしれませんがご了承ください。</p>



<h2 class="wp-block-heading">調整化公式の導出 (3.2 調整)</h2>



<p>まず、新薬の効果を表す問題を考えます。考える因果グラフは以下の通り。</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img decoding="async" width="667" height="278" src="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/drug.png" alt="" class="wp-image-1612" srcset="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/drug.png 667w, https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/drug-300x125.png 300w" sizes="(max-width: 667px) 100vw, 667px" /><figcaption class="wp-element-caption">図 3.1 新薬効果の因果グラフ</figcaption></figure></div>


<p>この問題において以下の平均因果効果（ACE: average causal effect）が知りたいことです。</p>



<p>$$ \begin{align*} <br>ACE=P(Y = 1 |  do(X = 1)) &#8211; P(Y = 1 |  do(X = 0)) <br>\end{align*} $$</p>



<p>この式から\( P(Y|  do(X)) \) の確率を観測データから計算できればACEの計算ができることがわかります。このため、これ以降は\( P(Y|  do(X)) \)を観測データから計算する方法について説明していきます。具体的には以下の形に変形することを目指します。</p>



<p>$$ \begin{align*}<br>P(Y | do(X)) &amp;= \sum_z P(Y|X, Z=z)P(Z=z) \\<br>\tag{3.1}<br>\end{align*} $$</p>



<p>この式が調整化公式と呼ばれるものです。</p>



<p>ここで、\( do()\) はdo演算子といいます。これは変数\(X\) が自然に値\(x\)をとる場合と \( X=x \) に固定する場合を区別して表記したいという理由から、値を固定する後者の場合を\( do(X=x) \) と表記するために用いています。例示した図3.1の因果グラフにおいては、\(Z\)に依存した何等かの理由により薬を使った人のうち回復する確率を \( P(Y = 1 | X = 1) \) 、\(Z\)によらず、全員に対して薬を使うように固定した場合の回復する確率を \( P(Y = 1 | do(X = 1)) \)と表しています。固定して薬を使うようなケースは介入試験で全員に薬を使った場合などを指します。</p>



<p>言葉だとわかりづらいと思うので因果グラフでも示します。\(do(X=x)\) というように\(X \) を固定した場合の修正後の因果グラフは以下のようになります。</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img loading="lazy" decoding="async" width="661" height="275" src="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/drug_do_X.png" alt="" class="wp-image-1613" srcset="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/drug_do_X.png 661w, https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/drug_do_X-300x125.png 300w" sizes="auto, (max-width: 661px) 100vw, 661px" /><figcaption class="wp-element-caption">do(X)で修正後の新薬効果の因果グラフ</figcaption></figure></div>


<p>この因果グラフにおける確率を本にならって\(P_m\) と表記します。この修正後の因果グラフの確率\(P_m\)を利用すると\( P(Y |  do(X)) \) は以下のように表すことができます。</p>



<p>$$ \begin{align*}<br>P(Y | do(X)) = P_m(Y|X) \tag{3.2} \\<br>\end{align*} $$</p>



<p>この後はこの\(P(Y | do(X)) \)が式変形により\(P_m\)に依存しない形に式変形できることを示します。これができると介入試験のデータを使わずに観察データから\(P(Y | do(X)) \)が求められることとになります。</p>



<p>\(P(Y | do(X)) \)の式変形の前に後ほど式変形で重要な関係を以下に列挙しておきます。</p>



<p>$$ \begin{align*} <br>P_m(Z) =&amp; P(Z)  \tag{3.3} \\<br>P_m(Y|X, Z) =&amp; P(Y|X, Z) \tag{3.4} \\<br>\end{align*} $$</p>



<p>式(3.3)は\(Z\) が\(X\)の介入による影響がないため、式(3.4)は\(X\)と\(Z\)が条件付けされた状況下において、\(Y\)の確率は修正前後で変化しないため成り立ちます。</p>



<p>それでは\(P(Y | do(X)) \)の式変形をしていきます。まず、先ほど示した通り、以下のように\(P_m\)を利用すると以下のように表すことができます。</p>



<p>$$ \begin{align*}<br>P(Y | do(X)) = P_m(Y|X) \tag{3.2} \\<br>\end{align*} $$</p>



<p>ここで、確率の周辺化が以下のような式で行えることを利用します。</p>



<p>$$ \begin{align*} <br>P(Y) =&amp; \sum_x P(Y, X=x) \tag{3.5} \\<br>\end{align*} $$</p>



<p>この周辺化の式を利用して式(3.2)を\(P_m(Y, Z|X) \)の同時確率の式で書きます。</p>



<p>$$ \begin{align*}<br>P(Y | do(X)) &amp;= P_m(Y|X)  \\<br>&amp;= \sum_z P_m(Y, Z=z | X) \tag{3.6}<br>\end{align*} $$</p>



<p>次に\(P_m(Y, Z | X)\)の部分を条件付き確率の定義を利用します。条件付き確率の定義より\( P_m(Y|X, Z) \)の部分は以下のようになります。</p>



<p>$$ \begin{align*}<br>P_m(Y|X, Z) &amp;= \frac{P_m(Y, Z | X)}{P_m(Z|X)}  \tag{3.7}<br>\end{align*} $$</p>



<p>後ほどの説明で分かりやすいように式(3.7)の左右を入れ替えて、両辺を\(P_m(Z|X)\)でかけると以下の式になります。</p>



<p>$$ \begin{align*}<br>\frac{P_m(Y, Z | X)}{P_m(Z|X)} &amp;= P_m(Y|X, Z) \\<br>\frac{P_m(Y, Z | X)P_m(Z|X)}{P_m(Z|X)} &amp;= P_m(Y|X, Z)P_m(Z|X) \\<br>P_m(Y, Z | X) &amp;= P_m(Y|X, Z)P_m(Z|X)  \tag{3.8}<br>\end{align*} $$</p>



<p>ここで修正後の因果グラフにおいて\(Z\)は\(X\)と独立なことを利用すると以下のように変形できます。</p>



<p>$$ \begin{align*}<br>P_m(Z|X) = P_m(Z)  \tag{3.9}<br>\end{align*} $$</p>



<p>式(3.3)、 (3.4)、(3.9) を利用すると式(3.8)は以下のように変形できます。</p>



<p>$$ \begin{align*}<br>P_m(Y, Z | X) &amp;= P_m(Y|X, Z)P_m(Z|X) \\<br>&amp;= P_m(Y|X, Z)P_m(Z) \\ <br>&amp;= P_m(Y|X, Z)P(Z) \\ <br>&amp;= P(Y|X, Z)P(Z) \\ <br>\tag{3.10}<br>\end{align*} $$</p>



<p>この式(3.10)を式(3.6)に代入すると以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y | do(X)) &amp;= \sum_z P_m(Y, Z=z | X) \\<br>&amp;= \sum_z P(Y|X, Z=z)P(Z=z) \\<br>\tag{3.11}<br>\end{align*} $$</p>



<p>以上の結果から式(3.1)を導出できました。</p>



<h2 class="wp-block-heading">調整化公式を傾向スコアを使った形に変形する (3.2.1 調整すべきか否か)</h2>



<p>先ほど示した調整化公式を因果推論でよく使われる傾向スコアを使った以下の形の式に変形します。</p>



<p>$$ \begin{align*}<br>P(Y | do(X)) &amp;= \sum_z  \frac{P(X, Y, Z=z)}{P(X|Z=z)} \\<br>\tag{3.12}<br>\end{align*} $$</p>



<p>ここで\(P(Z|X)\)が傾向スコアです。</p>



<p>では、調整化公式の式(3.1)を式(3.12)の形を目指して変形していきます。まずは右辺の\(P(Y|X, Z=z)P(Z=z)\)に注目します。ここで、\(P(X|Z)/P(X|Z)\)をかけます。</p>



<p>$$ \begin{align*}<br>P(Y|X, Z)P(Z) &amp;= \frac{P(Y|X, Z)P(X|Z)P(Z)}{P(X|Z)} \\<br>\tag{3.13}<br>\end{align*} $$</p>



<p>ここで分子の部分について条件付き確率の定義から\(X\)と\(Z\)を条件付けせずに同時確率の形で書くことができます。具体的には以下のように変形できます。</p>



<p>$$ \begin{align*}<br>P(Y|X, Z)P(X|Z)P(Z) &amp;= P(X, Y|Z)P(Z) \\<br>&amp;= P(X, Y, Z) \\<br>\tag{3.14}<br>\end{align*} $$</p>



<p>この式(3.13)、(3.14)を利用すると式(3.11)は以下のように変形できます。</p>



<p>$$ \begin{align*}<br>P(Y | do(X)) &amp;= \sum_z P(Y|X, Z=z)P(Z=z) \\<br>&amp;= \sum_z  \frac{P(Y|X, Z=z)P(X|Z=z)P(Z=z)}{P(X|Z=z)} \\<br>&amp;= \sum_z  \frac{P(X, Y, Z=z)}{P(X|Z=z)} \\<br>\tag{3.15}<br>\end{align*} $$</p>



<p>これで求めたかった式(3.12)を導出することができました。</p>



<h2 class="wp-block-heading">フロントドア公式の導出 (3.4 フロントドア基準)</h2>



<p>次にフロントドア公式の導出について説明していきます。ここでは以下の因果グラフを考えます。</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img loading="lazy" decoding="async" width="651" height="266" src="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/smoking.png" alt="" class="wp-image-1614" srcset="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/smoking.png 651w, https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/smoking-300x123.png 300w" sizes="auto, (max-width: 651px) 100vw, 651px" /><figcaption class="wp-element-caption">喫煙と肺がんの因果グラフ</figcaption></figure></div>


<p>\(U\)は観測されていない交絡因子なので、この\(U\)を使わない形で\(X\)の効果、ここでは喫煙の肺がんへの影響があるかを考えます。これを考えるうえで、変数\(Z\)、ここではタール蓄積が観測できているとします。そして、ゴールとして因果効果を測るうえで、\(P(Y|do(X))\) という確率が求められれば良いと考えます。</p>



<p>本のほうの説明ではバックドア基準を２度にわたって適用すればよいと書かれています。しかし、この意味がなんとなくでしか私は理解できなかったので、私なりに\(P(Y|do(X))\)を式変形していってフロントドア公式を導出していきます。具体的には先ほどの因果グラフにおいて以下の式の導出を行います。</p>



<p>$$ \begin{align*}<br>P(Y | do(X=x)) &amp;= \sum_z P(Y|do(Z=z))P(Z=z | do(X=x)) \\<br>&amp;= \sum_z \sum_{x^{\prime}} P(Y|X=x^{\prime}, Z=z)P(Z=z | X=x) \tag{3.16}<br>\end{align*} $$</p>



<p>ではフロンドドア公式の導出を始めます。まずは式(3.16)の１行目のdo演算子を使った式を目指して\(P(Y|do(X))\)を変形していきます。まず、\(P(Y|do(X))\)を周辺化の式(3.6)を利用して\(P(Y, Z|do(X))\)という同時確率を使った式に変形し、その後、\(Z\)で条件付けした確率に変形させます。</p>



<p>$$ \begin{align*}<br>P(Y | do(X)) &amp;= \sum_z P(Y, Z=z|do(X)) \\<br>&amp;= \sum_z P(Y|do(X), Z=z)P(Z=z | do(X)) \tag{3.17}<br>\end{align*} $$</p>



<p>ここで、因果グラフより\(X\)から\(Y\)につながるパスは\(X \rightarrow Z \rightarrow Y \)しかありません。このため、\(Z\)で条件付けされていると変数\(Y\)は\(X\)とは独立となっています。このため、\(P(Y|do(X), Z=z)\)の部分は以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y|do(X), Z) &amp;= P(Y|Z)  \tag{3.18}<br>\end{align*} $$</p>



<p>次に、周辺化の式を利用して\(P(Y|Z)\)を\(X\)を加えた同時確率で表現したあと、\(X\)の条件付き確率の形を使って表します。</p>



<p>$$ \begin{align*}<br>P(Y|Z) &amp;= \sum_{x^{\prime}} P(X=x^{\prime}, Y|Z) \\<br>&amp;= \sum_{x^{\prime}} P(Y|X=x^{\prime}, Z)P(X=x^{\prime}) \tag{3.18}<br>\end{align*} $$</p>



<p>次に\(P(Y|X, Z)\)を変形していきます。ただ、ここからだと分かりにくいので\(P(Y|do(Z))\)から式変形していって、\(P(Y|X, Z)\)になることを示します。基本の流れは調整化公式の導出と同じ流れです。</p>



<p>まず、わかりやすいように\(do(Z)\)で修正された因果グラフを示します。</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img loading="lazy" decoding="async" width="646" height="257" src="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/smoking_d_Z.png" alt="" class="wp-image-1615" srcset="https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/smoking_d_Z.png 646w, https://www.mattari-benkyo-note.com/wp-content/uploads/2023/01/smoking_d_Z-300x119.png 300w" sizes="auto, (max-width: 646px) 100vw, 646px" /><figcaption class="wp-element-caption">do(Z)で修正後の喫煙と肺がんの因果グラフ</figcaption></figure></div>


<p>この因果グラフにおける確率を\(P_{z}\) とすると\(P(Y|do(Z))\)を\(P_{z}\)で表したあと、確率の周辺化と条件付きの定義を利用して変形していくと以下の通りです。</p>



<p>$$ \begin{align*}<br>P(Y|do(Z)) &amp;= P_z(Y|Z) \\<br>&amp;= \sum_{x^{\prime}} P_z(Y, X=x^{\prime}|Z) \\<br>&amp;= \sum_{x^{\prime}} P_z(Y|X=x^{\prime}, Z)P_z(X=x^{\prime}|Z) \tag{3.19}<br>\end{align*} $$</p>



<p>また、修正前後の因果グラフより以下が成り立ちます。</p>



<p>$$ \begin{align*} <br>P_z(X|Z) &amp;= P_z(X)  \tag{3.20} \\<br>P_z(X) &amp;= P(X)  \tag{3.21} \\<br>P_z(Y|X, Z) &amp;= P(Y|X, Z) \tag{3.22} \\<br>\end{align*} $$</p>



<p>この式(3.20)から(3.22)を利用して式(3.19)の\(P_z(Y|X, Z)P_z(X|Z) \)の部分を以下のように変形します。</p>



<p>$$ \begin{align*} <br>P_z(Y|X, Z)P_z(X|Z) &amp;= P_z(Y|X, Z)P_z(X) \\<br>&amp;= P_z(Y|X, Z)P(X) \\<br>&amp;= P(Y|X, Z)P(X)   \tag{3.23}<br>\end{align*} $$</p>



<p>この式(3.23)を利用すると式(3.19)は以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y|do(Z)) &amp;= \sum_{x^{\prime}} P_z(Y|X=x^{\prime}, Z)P_z(X=x^{\prime}|Z) \\ <br>&amp;= \sum_{x^{\prime}} P(Y|X=x^{\prime}, Z)P(X=x^{\prime})<br>\tag{3.24}<br>\end{align*} $$</p>



<p>この式(3.24)と式(3.19)を利用すると式(3.18)は以下のようになります。</p>



<p>$$ \begin{align*}<br>P(Y|do(X), Z) &amp;= P(Y|Z)  \\<br>&amp;= \sum_{x^{\prime}} P(Y|X=x^{\prime}, Z)P(X=x^{\prime}) \\<br>&amp;= P(Y|do(Z)) \tag{3.25}<br>\end{align*} $$</p>



<p>よって式(3.25)を利用して式(3.17)を変形するとまず求めたかった式(3.16)のdo演算子を使った形になります。</p>



<p>$$ \begin{align*}<br>P(Y | do(X)) &amp;= \sum_z P(Y|do(X), Z=z)P(Z=z | do(X)) \\<br>&amp;= \sum_z P(Y|do(Z=z))P(Z=z | do(X)) \tag{3.26}<br>\end{align*} $$</p>



<p>ここまでで、式(3.16)の1行目のdo演算子を使った式ができました。ここから、do演算子のない形に変形していきます。</p>



<p>まず、式(3.24)の式を使い\(do(Z)\)を使わない形に式(3.26)を変形します。ここから\(X\)の値が2種類でてくるので区別できるように\(x\)と\(x^{\prime}\)の二つに分けます。</p>



<p>$$ \begin{align*}<br>P(Y | do(X=x)) &amp;= \sum_z P(Y|do(Z=z))P(Z=z | do(X=x)) \\<br>&amp;= \sum_{x^{\prime}} P(Y|X=x^{\prime}, Z)P(X=x^{\prime})P(Z=z | do(X=x)) \\<br>\tag{3.27}<br>\end{align*} $$</p>



<p>次に\(P(Z=z | do(X=x))\)の部分で\(do(X)\)がない形に変形することを目指します。ここで元の因果グラフを見ると\(X\) から\(Z\)につながるパスは\(X \rightarrow Z \)しかないため、因果グラフから以下の等式が成り立ちます。</p>



<p>$$ \begin{align*}<br>P(Z| do(X)) &amp;= P(Z|X)<br>\tag{3.28}<br>\end{align*} $$</p>



<p>（\(do(X)\)によって修正された因果グラフを考えて\(P(Z=z | do(X=x))\)を修正後の因果グラフの確率から観測データから計算できる確率にするにはどうすればよいのか考えてもいいのですが、自明なので省略します。）</p>



<p>この式(3.28)を利用すると式(3.27)は以下のように変形できます。</p>



<p>$$ \begin{align*}<br>P(Y | do(X=x)) &amp;= \sum_{x^{\prime}} P(Y|X=x^{\prime}, Z)P(X=x^{\prime})P(Z=z | do(X=x)) \\<br>&amp;= \sum_{x^{\prime}} P(Y|X=x^{\prime}, Z)P(X=x^{\prime})P(Z=z | X=x) \tag{3.29}<br>\end{align*} $$</p>



<p>この式は求めたかった式（3.16）の式になっています。これでフロントドア公式を導出することができました。</p>



<h2 class="wp-block-heading"> 終わりに</h2>



<p>今回の記事では入門 統計的因果推論 の３章の部分で私がぱっとわからなかった部分の式変形を中心に説明する記事を書きました。本当はCDE (Controlled direct effect) (本で3.7 媒介で説明されていた部分)もぱっとわからなかったのですが、ここに関しては４章の内容とまとめて説明したほうが分かりやすいので、４章の記事のときに説明しようと思います。</p>



<p>この記事がこの本を読む他の人にも役に立てば幸いです。</p><p>The post <a href="https://www.mattari-benkyo-note.com/2023/01/12/causal-inference-in-statistics-a-primer-chapter-3/">[勉強ノート] 入門 統計的因果推論 3章 介入効果　</a> first appeared on <a href="https://www.mattari-benkyo-note.com">まったり勉強ノート</a>.</p>]]></content:encoded>
					
					<wfw:commentRss>https://www.mattari-benkyo-note.com/2023/01/12/causal-inference-in-statistics-a-primer-chapter-3/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">1538</post-id>	</item>
	</channel>
</rss>
