高校数学[総目次]
数学B 第3章 統計的な推測
スライド | ノート | |
1. 確率変数と確率分布 | ||
2. 確率変数の期待値と分散 | ||
3. 確率変数の変換 | ||
4. 確率変数の和と期待値 | ||
5. 独立な確率変数と期待値・分散 | ||
6. 二項分布 | ||
7. 正規分布 | ||
8. 母集団と標本 | ||
9. 推定 | ||
10. 仮説検定 |
5.独立な確率変数と期待値・分散
5.1 確率変数の独立
確率変数の独立 2つの確率変数 $X,Y$ について,$X$ のとる任意の値 $a$ と,$Y$ のとる任意の値 $b$ について, \[P(X=a, Y=b)=P(X=a)P(Y=b)\] が成り立つとき,確率変数 $X$ と $Y$ は互いに独立(independent)であるという.
「互いに」というのは,$X$ は $Y$ から独立し,かつ $Y$ は $X$ から独立しているということである.実際,この式を $P(Y=b)$ で割ると,
\[\frac{P(X=a,Y=b)}{P(Y=b)}=P(X=a)\]
となるが,この左辺は $Y=b$ という条件の下で $X=a$ となる条件付き確率を表すから左辺を書き換えると
\[P_{Y=b}(X=a)=P(X=a)\]
となる.この式は $Y=b$ という条件を付けても $X=a$ となる確率に何の影響を及ぼしていないことを表しており,従って $X$ は $Y$ から「独立」しているといえる.
一方,今度は両辺を $P(X=a)$ で割ると,
\[\frac{P(X=a,Y=b)}{P(X=a)}=P(Y=b)\]
\[\therefore P_{X=a}(Y=b)=P(Y=b)\]
となって,$Y$ は $X$ から「独立」しているといえる.
従って $X$ と $Y$ は「互いに」独立しているといえる.
2つの互いに独立な確率変数 $X,Y$ が,それぞれ次の確率分布に従うとする.
$X$ | $x_1$ | $x_2$ | 計 |
$P$ | $p_1$ | $p_2$ | $1$ |
$Y$ | $y_1$ | $y_2$ | 計 |
$P$ | $q_1$ | $q_2$ | $1$ |
このとき $X$ と $Y$ の同時分布は,$X$ と $Y$ が独立であるから次のようになる.
$X\backslash Y$ | $y_1$ | $y_2$ | 計 |
$x_1$ | $p_1q_1$ | $p_1q_2$ | $p_1$ |
$x_2$ | $p_2q_1$ | $p_2q_2$ | $p_2$ |
計 | $q_1$ | $q_2$ | $1$ |
この表からわかるように,$X,Y$ が互いに独立のとき,$X$ と $Y$ の同時分布は周辺分布を知るだけで求められるのである.
5.2 事象の独立と従属
4つの赤玉と4つの白玉合計8個の玉があり,それぞれの色の玉にはAとBが書かれた玉が2個ずつある.
赤A,赤A,赤B,赤B,白A,白A,白B,白B
この8個の玉が入った袋からランダムに1個取り出し,玉に書かれた文字を当てるゲームを考えよう。
今1個取り出したところ,玉の色が赤であった.この玉に書かれた文字がAである確率は,赤玉を取り出す確率が $\dfrac48$,赤玉かつAである確率は $\dfrac28$ であるから,玉の色が赤であるという条件の下,書かれた文字がAである条件付き確率は,
\[\frac{\frac28}{\frac48}=\frac12\]
である.
一方,袋からランダムに玉を1個取り出したとき,書かれた文字がAである確率は
\[\frac48=\frac12\]
であり,先ほどの確率と同じ値である.つまり「玉の色が赤である」という情報は,玉の文字を当てるのに何の役にも立たない.(取り出された玉の色を教えてもらっても,もらわなくても,玉に書かれた文字を当てる確率は同じ.)
一般に,2つの事象 $A,B$ について,事象 $A$ が起こる条件の下で事象 $B$ が起こる確率 $P_A(B)$ と,条件を付けずに事象 $B$ が起こる確率 $P(B)$ が等しい,すなわち
$P_A(B)=P(B)\ \ \cdots$①
が成り立つとき,事象 $B$ は事象 $A$ に独立であるという.これは,事象 $A$ が事象 $B$ に何の影響も与えていないということである.
実はこのとき,逆の「事象 $A$ は事象 $B$ に独立である」もいえる.というのも,確率の乗法定理
\[P(A\cap B)=P(A)P_A(B)\]
に上の①を代入すると
\[P(A\cap B)=P(A)P(B)\]
$P(B)\neq0$ のとき,この両辺を $P(B)$ で割ると,
\[\frac{P(A\cap B)}{P(B)}=P(A)\]
\[\therefore P_B(A)=P(A)\]
となるから,事象 $A$ は事象 $B$ に独立である.
従って,「事象 $A$ は事象 $B$ に独立である」ことと,「事象 $B$ は事象 $A$ に独立である」ことは同値で,このとき
\[P(A\cap B)=P(A)P(B)\]
が成り立つ.
一方,2つの事象 $A,B$ が独立でないとき,$A$ と $B$ は従属であるという.
独立事象の乗法定理
2つの事象 $A,B$ が互いに独立
$\iff\ P(A\cap B)=P(A)P(B)$
補足
この関係は $P(A)=0$ や $P(B)=0$ のとき,両辺が共に0となるから,これらの場合にも成り立つ.また,$P(A)=0$ のときは,$P_A(B)=P(B)$ と定義する.$P(B)=0$ のときも同様.つまり空事象はどんな事象とも独立である.
5.3 確率変数の独立と積の期待値
4節で「和の期待値=期待値の和」を学んだが、「積の期待値=期待値の積」すなわち
\[E(XY)=E(X)E(Y)\]
は成り立つのであろうか?
結論から言うと,この関係は一般には成り立たないが,$X$ と $Y$ がある条件を満たしていれば,上の関係は成り立つのである.そのある条件とは,$X$ と $Y$ は互いに独立であるという条件である.
それでは2つの確率変数が互いに独立のとき,冒頭で示した「積の期待値=期待値の積」を示していく.
独立な2つの確率変数 $X,Y$ がそれぞれ次の確率分布に従うとする.
$X$ | $x_1$ | $x_2$ | 計 |
$P$ | $p_1$ | $p_2$ | $1$ |
$Y$ | $y_1$ | $y_2$ | 計 |
$P$ | $q_1$ | $q_2$ | $1$ |
このとき $X$ と $Y$ の同時分布は,$X$ と $Y$ が独立であるから次のようになる.
$X\backslash Y$ | $y_1$ | $y_2$ | 計 |
$x_1$ | $p_1q_1$ | $p_1q_2$ | $p_1$ |
$x_2$ | $p_2q_1$ | $p_2q_2$ | $p_2$ |
計 | $q_1$ | $q_2$ | $1$ |
従って,積の確率変数 $XY$ の期待値(平均)は,
\[\begin{align*} &E(XY)\\[5pt] &=(x_1y_1)(p_1q_1)\!+\!(x_1y_2)(p_1q_2)\!+\!(x_2y_1)(p_2q_1)\!+\!(x_2y_2)(p_2q_2)\\[5pt] &=(x_1p_1+x_2p_2)(y_1q_1+y_2q_2)\\[5pt] &=E(X)E(Y) \end{align*}\]
独立な確率変数の積の期待値 2つの確率変数 $X,Y$ が互いに独立であるとき, \[E(XY)=E(X)E(Y)\]
3つ以上の確率変数の独立性も,2つの場合と同様に定義される.例えば,3つの確率変数 $X,Y,Z$ が互いに独立であるとは,
\[P(X=a,Y=b,Z=c)=P(X=a)P(X=b)P(Z=c)\]
が成り立つときをいう.そしてこのとき,積の期待値についても
\[E(XYZ)=E(X)E(Y)E(Z)\]
が成り立つことが,2つの場合と同様にして示される.このように確率変数が互いに独立であるときは,様々な関係が成り立つのである.
発展的補足
上では簡単のため,$X,Y$ のとる値は2つずつとしたが,一般の場合は次のように示される.
$X,Y$ が独立のとき,$E(X)=\mu$ (定数)とおくと,
\[\begin{align*} E(XY)&=\sum_{i=1}^m\sum_{j=1}^n (x_i\,y_j\cdot p_i\,q_j)\\[5pt] &=\sum_{j=1}^n \left\{y_j\,q_j\left(\sum_{i=1}^m x_i\,p_i\right)\right\}\\[5pt] &=\sum_{j=1}^n (y_j\,q_j\cdot \mu)\\[5pt] &=\mu\sum_{j=1}^n y_j\,q_j\\[5pt] &=\mu\cdot E(Y)\\[5pt] &=E(X)E(Y) \end{align*}\]
■
5.4 独立な確率変数の和の分散
確率変数 $X,Y$ について,$E(X+Y)=E(X)+E(Y)$ はいつでも(つまり独立などの仮定を要件とせずとも)成り立つ関係であったが,分散の方はどうだろう.$V(X+Y)=V(X)+X(Y)$ は成り立つのだろうか?
実はこれは無条件では成り立たない.しかし $X$ と $Y$ が互いに独立であるならば成り立つのである.
以下このことを確認する.2つの確率変数 $X,Y$ が互いに独立であるとき,$E(XY)=E(X)E(Y)$ が成り立つから,
\[\begin{align*} &V(X+Y)\\[5pt] &=E((X+Y)^2)-\{E(X+Y)\}^2\\[5pt] &=E(X^2+2XY+Y^2)-\{E(X)+E(Y)\}^2\\[5pt] &=E(X^2)+2E(XY)+E(Y^2)\\[5pt] &\hspace{10mm}-\bigl[\{E(X)\}^2+2E(X)E(Y)+\{E(Y)\}^2\bigr]\\[5pt] &=\bigl[E(X^2)-\{E(X)\}^2\bigr]+\bigl[E(Y^2)-\{E(Y)\}^2\bigr]\\[5pt] &=V(X)+V(Y) \end{align*}\]
2つの確率変数 $X,Y$ が互いに独立であるとき, \[V(X+Y)=V(X)+V(Y)\]
また,$X$ と $Y$ が独立ならば,$a,b$ を定数として $aX$ と $bY$ も独立である.何故なら
\[P(X=x_,Y=y)=P(X=x)P(Y=y)\]
が成り立つとき,
\[P(aX=ax,bY=by)=P(aX=ax)P(bY=by)\]
は明らかに成り立つからである.従って既出の公式 $V(aX+b)=a^2V(X)$ により次も成り立つ.
$a,b$ を定数とする.2つの確率変数 $X,Y$ が互いに独立であるとき, \[V(aX+bY)=a^2V(X)+b^2V(Y)\]
注意
$V(X-Y)=V(X)-V(Y)$ とはならない.正しくは上の式から
\[\begin{align*} V(X-Y)&=1^2\cdot V(X)+(-1)^2\cdot V(Y)\\[5pt] &=V(X)+V(Y) \end{align*}\]
例題 $X,Y$ が互いに独立で,$V(X)=2,V(Y)=3$ のとき, $V(3X-2Y)$ の値を求めよ.
こたえ
解答例を表示する >
互いに独立な3つ以上の確率変数 $X,Y,Z$ についても
など,同様の計算によって加法性が成り立つことが示される.また,
\[V(aX+bY+cZ)=a^2V(X)+b^2V(Y)+c^2V(Z)\]
も成り立つ.
発展的補足1
すぐ上の「$\cdots$」で省略された計算過程で,3つの確率変数 $X,Y,Z$ が互いに独立であるとき,任意に選んだ2つも独立であるという事実を用いた.どれも同じであるから $X$ と $Y$ の2つが独立であることを示す.
\[Z=z_1,z_2,\cdots,z_n\]
とする.$X,Y,Z$ が独立であるから,$X,Y,Z$ がとり得る任意の $x_i,y_j,z_k$ について,
\[P(X\!=\!x_i,Y\!=\!y_j,Z\!=\!z_k)\!=\!P(X\!=\!x_i)P(Y\!=\!y_j)P(Z\!=\!z_k)\]
が成り立つ.いま $i$ と $j$ を固定して,上の両辺を $k$ で和をとると,
となる.
左辺について.「$X=x_i$ かつ $Y=y_j$ となる事象」を細かく分けて考えると「$Z=z_1$ となる事象,$Z=z_2$ となる事象,$\cdots$,$Z=z_n$ となる事象」の $n$ 個の事象に分けることができ,これらは互いに排反である.左辺はこれらの和事象の確率なので $P(X=x_i,Y=y_j)$ となる.
一方右辺は,
\[\begin{align*} (\mbox{右辺})&=P(X=x_i)P(Y=y_j)\displaystyle\sum_{k=1}^nP(Z=z_k)\\[5pt] &=P(X=x_i)P(Y=y_j)\cdot 1\\[5pt] &=P(X=x_i)P(Y=y_j) \end{align*}\]
となるから
\[P(X=x_i,Y=y_j)=P(X=x_i)P(Y=y_j)\]
となり,確率変数 $X,Y$ の独立性が示された.
発展的補足2
上では $V(X+Y)=V(X)+V(Y)$ を導くのに $V(X)=E(X^2)-\{E(X)\}^2$ の公式を利用したが,定義通り計算して導くと次のようになる.
$E(X)=m_X,\ E(Y)=m_Y$ とすると,$E(X+Y)=m_X+m_Y$ であるから,
ただし,$E\left\{(X-m_X)(Y-m_Y)\right\}={\rm Cov}(X,Y)$ とおいた.${\rm Cov}(X,Y)$ は確率分布を用いた $X$ と $Y$ の共分散(covariance)であり,「数学Ⅰ データの分析」に出てきた共分散 $s_{xy}$ の一般形である.
更に $X$ と $Y$ の相関係数 $\rho_{XY}$ を
\[\rho_{XY}=\frac{{\rm Cov}(X,Y)}{\sqrt{V(X)}\sqrt{V(Y)}}\]
で定義すると,
\[{\rm Cov}(X,Y)=\rho_{XY}\cdot\sqrt{V(X)}\sqrt{V(Y)}\]
であるから,相関係数 $\rho_{XY}$ が0,すなわち確率変数 $X,Y$ が無相関であるならば,${\rm Cov}(X,Y)=0$ となり,$V(X+Y)=V(X)+V(Y)$ が導かれるのである.
確率変数 $X,Y$ が無相関のとき, \[V(X+Y)=V(X)+V(Y)\]
最初に示したときには「$X,Y$ が独立であるとき」という仮定をおいたが,ここでの仮定は「$X,Y$ が無相関のとき」となっていることに注意する.一般に $X,Y$ が独立ならば,$E(XY)=E(X)E(Y)$ より
\[\begin{align*} {\rm Cov}(X,Y)&=E\left\{(X-m_X)(Y-m_Y)\right\}\\[5pt] &=E(X-m_X)E(Y-m_Y)\\[5pt] &=0 \end{align*}\]
となるから「独立 $\Longrightarrow$ 無相関」だが,この逆はいえない.$V(X+Y)=V(X)+V(Y)$ が成り立つのは,「$X,Y$ が独立である」という強い仮定をおかなくても「$X,Y$ が無相関である」という少しゆるめた仮定でも成り立つのである.
これまでに学習したことをまとめると次のようになる:
まとめ \[\begin{align*} &E(aX+b)=aE(X)+b\\[5pt] &V(aX+b)=a^2V(X)\\[5pt] &E(X+Y)=E(X)+E(Y)\\[5pt] \end{align*}\] 以下は, $X$ と $Y$ が独立のとき成り立つ. \[\begin{align*} &E(XY)=E(X)E(Y)\\[5pt] &V(X+Y)=V(X)+V(Y)\\[5pt] &V(aX+bY)=a^2V(X)+b^2V(Y) \end{align*}\]
高校数学[総目次]
数学B 第3章 統計的な推測
スライド | ノート | |
1. 確率変数と確率分布 | ||
2. 確率変数の期待値と分散 | ||
3. 確率変数の変換 | ||
4. 確率変数の和と期待値 | ||
5. 独立な確率変数と期待値・分散 | ||
6. 二項分布 | ||
7. 正規分布 | ||
8. 母集団と標本 | ||
9. 推定 | ||
10. 仮説検定 |