確率変数の独立性

Pocket

2変数確率変数X,Yに対して、それらが独立(independent)であるとはどういうことかを説明します。そして、独立であることと、相関があることの関係を説明します。

ます、2つの確率変数に対する独立性の定義を見てみましょう。

2つの独立変数の独立性の定義

確率変数X,Yが同時にX=xY=yという値をとる同時確率分布f(x,y)=P(X=x, Y=y)とします。また、確率変数Yの値は問わずに、とにかく確率変数XX=xという値を取る周辺確率分布g(x)=P(X=x)=\sum_y f(x,y)とします。同様に確率変数Xの値は問わずに、とにかく確率変数YY=yという値を取る周辺確率分布h(y)=P(Y=y)=\sum_x f(x,y)とします。

そこで、2つの確率変数の同時確率分布(同時確率密度関数)f(x,y)が、それぞれの確率変数の周辺確率分布(周辺確率密度関数)g(x)h(y)の積に分解できる時、その2つの確率変数は独立(independent)であると言います。

\displaystyle f(x,y)=g(x)h(y)

 

2つの変数の独立性と条件付き確率

ここで、条件付き確率について思い出してもらいたいのですが、一方の確率変数がY=yという値をとったという前提のもとで、もう一方の変数がX=xという値をとる確率(条件付き確率分布)を条件付き確率といい、g(x|y)=P(X=x|Y=y)と書くのでした。(XとYを入れ替えた、h(y|x)=P(Y=y|X=x)も同様に定義します。)

実は、2つの確率変数が独立である時、条件付き確率分布g(x|y)h(x|y)はそれぞれ周辺確率分布g(x)h(y)に一致します。つまり、次が成り立ちます。

\displaystyle g(x|y)=g(x)

 

\displaystyle h(y|x)=h(y)

 

これは大雑把にいって、確率変数が独立であれば、一方の確率変数に条件があったとしても、他方の確率変数には影響しないということですね。

 

独立の時、期待値はそれぞれの積に分解できます。

さて、確率変数が独立であれば、その期待値について次のような定理が成り立ちます。2つの確率変数が独立の時、2つの確率変数の積の期待値は、それぞれの確率変数の期待値の積になります。

\displaystyle E(XY)=E(X)E(Y)

 

この証明は、期待値と独立性の定義からすぐに導くことができます。

 

独立と相関の関係

さて、2つの確率変数に対して、独立と相関という2つの概念が出てきました。そこでこれらの間の関係はどうなっているでしょうか?

次のようなことが定理として成り立ちます。

「独立(independent)ならば無相関(no correlarion)になります。ただし、無相関だからと言って、独立とは限りません。」

これが成り立つ理由は以下の通りです。相関の定義より次のように証明できます。

\displaystyle C(X,Y)=E(XY)-E(X)E(Y)=0

 

コメントは停止中です。