高校数学[総目次]

数学B 第3章 統計的な推測

  スライド ノート
1. 確率変数と確率分布  
2. 確率変数の期待値と分散  
3. 確率変数の変換  
4. 確率変数の和と期待値  
5. 独立な確率変数と期待値・分散  
6. 二項分布  
7. 正規分布  
8. 母集団と標本  
9. 推定  
10. 仮説検定  

5.独立な確率変数と期待値・分散

5.1 確率変数の独立

 百円玉を投げて表が出れば1,裏が出れば2をとる確率変数を $X$ とする.同様に十円玉についても表が出れば1,裏が出れば2をとる確率変数を $Y$ とする.2枚の硬貨は表と裏が等確率で出るとして,この2枚を同時に投げたときの同時分布は次のようになる.

$X\backslash Y$ $1$ $2$
$1$ $\dfrac14$ $\dfrac14$$\dfrac12$
$2$ $\dfrac14$ $\dfrac14$$\dfrac12$
$\dfrac12$ $\dfrac12$$1$

 この表から例えば

\[\begin{align*} P(X=1,Y=2)&=\frac14\\[5pt] P(X=1)\times P(Y=2)&=\frac12\times\frac12=\frac14 \end{align*}\]

となっているから

\[P(X=1,Y=2)=P(X=1)P(Y=2)\]

が成り立っている.実のところ,$X=1,Y=2$ に限らず,$a,\ b$ がそれぞれ1と2のいずれであっても常に

\[P(X=a,Y=b)=P(X=a)P(Y=b)\]

が成り立つ.このとき2つの確率変数 $X,\ Y$ は互いに独立であるという.

確率変数の独立(定義)  2つの確率変数 $X,Y$ について,$X$ のとる任意の値 $a$ と,$Y$ のとる任意の値 $b$ について, \[P(X=a, Y=b)=P(X=a)P(Y=b)\] が成り立つとき,確率変数 $X$ と $Y$ は互いに独立(independent)であるという.

 「互いに」というのは,$X$ は $Y$ から独立し,かつ $Y$ は $X$ から独立しているということである.実際,この式を $P(Y=b)$ で割ると,

\[\frac{P(X=a,Y=b)}{P(Y=b)}=P(X=a)\]

となるが,この左辺は $Y=b$ という条件の下で $X=a$ となる条件付き確率を表すから左辺を書き換えると

\[P_{Y=b}(X=a)=P(X=a)\]

となる.この式は $Y=b$ という条件を付けても $X=a$ となる確率に何の影響を及ぼしていないことを表しており,従って $X$ は $Y$ から「独立」しているといえる.

 一方,今度は両辺を $P(X=a)$ で割ると,

\[\frac{P(X=a,Y=b)}{P(X=a)}=P(Y=b)\]

\[\therefore P_{X=a}(Y=b)=P(Y=b)\]

となって,$Y$ は $X$ から「独立」しているといえる.

 従って $X$ と $Y$ は「互いに」独立しているといえる.

 3つ以上の確率変数の独立性も,2つの場合と同様に定義される.例えば,3つの確率変数 $X,Y,Z$ が互いに独立であるとは次の場合をいう.

 3つの確率変数 $X,Y,Z$ について,$X$ のとる任意の値 $a$ と,$Y$ のとる任意の値 $b$ と,$Z$ のとる任意の値 $c$ について,\[P(X\!=\!a,Y\!=\!b,Z\!=\!c)\!=\!P(X\!=\!a)P(X\!=\!b)P(Z\!=\!c)\] が成り立つとき,確率変数 $X$ と $Y$ と $Z$ は互いに独立であるという.

発展的注意

 $X,Y,Z$ が互いに独立ならば,$X$ と $Y$,$Y$ と $Z$,$Z$ と $X$ というように任意の2つを選んでも互いに独立である(cf. 発展的補足1)が,その逆,すなわち $X$ と $Y$,$Y$ と $Z$,$Z$ と $X$ が互いに独立であっても $X,Y,Z$ が互いに独立になるとは限らない.

 赤と白のカードが2枚ずつあり,それぞれのカードにはカタカナが1つずつ書かれている.今,次の4枚を考える:

赤ア,赤イ,白ア,白イ

 この4枚から1枚を無作為に選ぶという試行を行う.そして次の3つの確率変数を導入する.

 $X$:赤(赤アor赤イ)ならば10,白(白アor白イ)ならば20
 $Y$:ア(赤アor白ア)ならば30,イ(赤イor白イ)ならば40
 $Z$:赤アまたは白イならば50,赤イまたは白アならば60

 これら3つの確率変数の分布はそれぞれ次のようになる:

$X$ $10$ $20$
$P$ $\dfrac12$ $\dfrac12$$1$
$Y$ $30$ $40$
$P$ $\dfrac12$ $\dfrac12$$1$
$Z$ $50$ $60$
$P$ $\dfrac12$ $\dfrac12$$1$

 このとき,$X$ と $Y$,$Y$ と $Z$,$Z$ と $X$ の同時分布は次のようになる:

$X\backslash Y$ $30$ $40$
$10$ $\dfrac14$ $\dfrac14$$\dfrac12$
$20$ $\dfrac14$ $\dfrac14$$\dfrac12$
$\dfrac12$ $\dfrac12$$1$

$X$ と $Y$ の同時分布

$Y\backslash Z$ $50$ $60$
$30$ $\dfrac14$ $\dfrac14$$\dfrac12$
$40$ $\dfrac14$ $\dfrac14$$\dfrac12$
$\dfrac12$ $\dfrac12$$1$

$Y$ と $Z$ の同時分布

$Z\backslash X$ $10$ $20$
$50$ $\dfrac14$ $\dfrac14$$\dfrac12$
$60$ $\dfrac14$ $\dfrac14$$\dfrac12$
$\dfrac12$ $\dfrac12$$1$

$Z$ と $X$ の同時分布

 従って$X$ と $Y$,$Y$ と $Z$,$Z$ と $X$ は互いに独立である.然るに $X,Y,Z$ は互いに独立ではない.実際例えば $X=10,Y=30,Z=50$ に対応する事象は「赤ア」であるから

\[P(X=10,Y=30,Z=50)=\frac14\]

 一方

\[P(X=10)P(X=30)P(X=50)=\left(\frac12\right)^3=\frac18\]

であるから両者は一致しない.

 2つの互いに独立な確率変数 $X,Y$ が,それぞれ次の確率分布に従うとする.

$X$ $x_1$ $x_2$
$P$ $p_1$ $p_2$$1$
$Y$ $y_1$ $y_2$
$P$ $q_1$ $q_2$$1$

 このとき $X$ と $Y$ の同時分布は,$X$ と $Y$ が独立であるから次のようになる.

$X\backslash Y$ $y_1$ $y_2$
$x_1$ $p_1q_1$ $p_1q_2$$p_1$
$x_2$ $p_2q_1$ $p_2q_2$$p_2$
$q_1$ $q_2$$1$

 この表からわかるように,$X,Y$ が互いに独立のとき,$X$ と $Y$ の同時分布は周辺分布を知るだけで求められるのである.

5.2 事象の独立と従属

 4つの赤玉と4つの白玉合計8個の玉があり,それぞれの色の玉にはAとBが書かれた玉が2個ずつある.

赤A,赤A,赤B,赤B,白A,白A,白B,白B

 この8個の玉が入った袋からランダムに1個取り出し,玉に書かれた文字を当てるゲームを考えよう。

 今1個取り出したところ,玉の色が赤であった.この玉に書かれた文字がAである確率は,赤玉を取り出す確率が $\dfrac48$,赤玉かつAである確率は $\dfrac28$ であるから,玉の色が赤であるという条件の下,書かれた文字がAである条件付き確率は,

\[\frac{\frac28}{\frac48}=\frac12\]

である.

 一方,袋からランダムに玉を1個取り出したとき,書かれた文字がAである確率は

\[\frac48=\frac12\]

であり,先ほどの確率と同じ値である.つまり「玉の色が赤である」という情報は,玉の文字を当てるのに何の役にも立たない.(取り出された玉の色を教えてもらっても,もらわなくても,玉に書かれた文字を当てる確率は同じ.)

 一般に,2つの事象 $A,B$ について,事象 $A$ が起こる条件の下で事象 $B$ が起こる確率 $P_A(B)$ と,条件を付けずに事象 $B$ が起こる確率 $P(B)$ が等しい,すなわち

$P_A(B)=P(B)\ \ \cdots$①

が成り立つとき,事象 $B$ は事象 $A$ に独立であるという.

 実はこのとき,逆の「事象 $A$ は事象 $B$ に独立である」もいえる.というのも,確率の乗法定理

\[P(A\cap B)=P(A)P_A(B)\]

に上の①を代入すると

\[P(A\cap B)=P(A)P(B)\]

 $P(B)\neq0$ のとき,この両辺を $P(B)$ で割ると,

\[\frac{P(A\cap B)}{P(B)}=P(A)\]

\[\therefore P_B(A)=P(A)\]

となるから,事象 $A$ は事象 $B$ に独立である.

 従って,「事象 $A$ は事象 $B$ に独立である」ことと,「事象 $B$ は事象 $A$ に独立である」ことは同値で,このとき

\[P(A\cap B)=P(A)P(B)\]

が成り立つ.

 一方,2つの事象 $A,B$ が独立でないとき,$A$ と $B$ は従属であるという.

独立事象の乗法定理    2つの事象 $A,B$ が互いに独立
   $\iff\ P(A\cap B)=P(A)P(B)$

補足

 この関係は $P(A)=0$ や $P(B)=0$ のとき,両辺が共に0となるから,これらの場合にも成り立つ.また,$P(A)=0$ のときは,$P_A(B)=P(B)$ と定義する.$P(B)=0$ のときも同様.つまり空事象はどんな事象とも独立である.

5.3 確率変数の独立と積の期待値

 4節で「和の期待値=期待値の和」を学んだが、「積の期待値=期待値の積」すなわち2つの確率変数 $X,\ Y$ について

\[E(XY)=E(X)E(Y)\]

は成り立つのであろうか?

 結論から言うと,この関係は一般には成り立たないが,$X$ と $Y$ がある条件を満たしていれば,上の関係は成り立つのである.そのある条件とは,$X$ と $Y$ は互いに独立であるという条件である.

 それでは2つの確率変数が互いに独立のとき,冒頭で示した「積の期待値=期待値の積」を示していく.

 独立な2つの確率変数 $X,Y$ がそれぞれ次の確率分布に従うとする.

$X$ $x_1$ $x_2$
$P$ $p_1$ $p_2$$1$
$Y$ $y_1$ $y_2$
$P$ $q_1$ $q_2$$1$

 このとき $X$ と $Y$ の同時分布は,$X$ と $Y$ が独立であるから次のようになる.

$X\backslash Y$ $y_1$ $y_2$
$x_1$ $p_1q_1$ $p_1q_2$$p_1$
$x_2$ $p_2q_1$ $p_2q_2$$p_2$
$q_1$ $q_2$$1$

 従って,積の確率変数 $XY$ の期待値(平均)は,

\[\begin{align*} &E(XY)\\[5pt] &=(x_1y_1)(p_1q_1)\!+\!(x_1y_2)(p_1q_2)\!+\!(x_2y_1)(p_2q_1)\!+\!(x_2y_2)(p_2q_2)\\[5pt] &=(x_1p_1+x_2p_2)(y_1q_1+y_2q_2)\\[5pt] &=E(X)E(Y) \end{align*}\]

独立な確率変数の積の期待値  2つの確率変数 $X,Y$ が互いに独立であるとき, \[E(XY)=E(X)E(Y)\]

 3つの確率変数 $X,Y,Z$ についても,これらが互いに独立のとき

\[E(XYZ)=E(X)E(Y)E(Z)\]

が成り立つことが,2つの場合と同様にして示される.このように確率変数が互いに独立であるときは,様々な関係が成り立つのである.

発展的補足

 上では簡単のため,$X,Y$ のとる値は2つずつとしたが,一般の場合は次のように示される.

 $X,Y$ が独立のとき,$E(X)=\mu$ (定数)とおくと,

\[\begin{align*} E(XY)&=\sum_{i=1}^m\sum_{j=1}^n (x_i\,y_j\cdot p_i\,q_j)\\[5pt] &=\sum_{j=1}^n \left\{y_j\,q_j\left(\sum_{i=1}^m x_i\,p_i\right)\right\}\\[5pt] &=\sum_{j=1}^n (y_j\,q_j\cdot \mu)\\[5pt] &=\mu\sum_{j=1}^n y_j\,q_j\\[5pt] &=\mu\cdot E(Y)\\[5pt] &=E(X)E(Y) \end{align*}\]

5.4 独立な確率変数の和の分散

 確率変数 $X,Y$ について,$E(X+Y)=E(X)+E(Y)$ はいつでも(つまり独立などの仮定を要件とせずとも)成り立つ関係であったが,分散の方はどうだろう.$V(X+Y)=V(X)+X(Y)$ は成り立つのだろうか?

 実はこれは無条件では成り立たない.しかし $X$ と $Y$ が互いに独立であるならば成り立つのである.

 以下このことを確認する.2つの確率変数 $X,Y$ が互いに独立であるとき,$E(XY)=E(X)E(Y)$ が成り立つから,

\[\begin{align*} &V(X+Y)\\[5pt] &=E((X+Y)^2)-\{E(X+Y)\}^2\\[5pt] &=E(X^2+2XY+Y^2)-\{E(X)+E(Y)\}^2\\[5pt] &=E(X^2)+2\underline{\boldsymbol{E(XY)}}+E(Y^2)\\[5pt] &\hspace{10mm}-\bigl[\{E(X)\}^2+2E(X)E(Y)+\{E(Y)\}^2\bigr]\\[5pt] &=E(X^2)+2\underline{\boldsymbol{E(X)E(Y)}}+E(Y^2)\\[5pt] &\hspace{10mm}-\bigl[\{E(X)\}^2+2E(X)E(Y)+\{E(Y)\}^2\bigr]\\[5pt] &=\bigl[E(X^2)-\{E(X)\}^2\bigr]+\bigl[E(Y^2)-\{E(Y)\}^2\bigr]\\[5pt] &=V(X)+V(Y) \end{align*}\]

※下線部で $E(XY)=E(X)E(Y)$ を用いた.

独立な確率変数の和の分散  2つの確率変数 $X,Y$ が互いに独立であるとき, \[V(X+Y)=V(X)+V(Y)\]

 また,$X$ と $Y$ が独立ならば,$a,b$ を定数として $aX$ と $bY$ も独立である.何故なら

\[P(X=x_,Y=y)=P(X=x)P(Y=y)\]

が成り立つとき,

\[P(aX=ax,bY=by)=P(aX=ax)P(bY=by)\]

は明らかに成り立つからである.従って既出の公式 $V(aX+b)=a^2V(X)$ により次も成り立つ.

 $a,b$ を定数とする.2つの確率変数 $X,Y$ が互いに独立であるとき, \[V(aX+bY)=a^2V(X)+b^2V(Y)\]

注意

 $V(X-Y)=V(X)-V(Y)$ とはならない.正しくは上の式から

\[\begin{align*} V(X-Y)&=1^2\cdot V(X)+(-1)^2\cdot V(Y)\\[5pt] &=V(X)+V(Y) \end{align*}\]

例題  $X,Y$ が互いに独立で,$V(X)=2,V(Y)=3$ のとき, $V(3X-2Y)$ の値を求めよ.

こたえ

 解答例を表示する

 互いに独立な3つ以上の確率変数 $X,Y,Z$ についても

\[\begin{align*} &V(X+Y+Z)\\[5pt] &=E((X+Y+Z)^2)-\{E(X+Y+Z)\}^2\\[5pt] &=E(X^2\!+\!Y^2\!+\!Z^2\!+\!2XY\!+\!2YZ\!+\!2ZX)-\{E(X)\!+\!E(Y)\!+\!E(Z)\}^2\\[5pt] &=\cdots\\[5pt] &=\bigl[E(X^2)\!-\!\{E(X)\}^2\bigr]\!+\!\bigl[E(Y^2)\!-\!\{E(Y)\}^2\bigr]\!+\!\bigl[E(Z^2)\!-\!\{E(Z)\}^2\bigr]\\[5pt] &=V(X)+V(Y)+V(Z) \end{align*}\]

\[\therefore V(X+Y+Z)=V(X)+V(Y)+V(Z)\]

など,同様の計算によって加法性が成り立つことが示される.また,

\[V(aX+bY+cZ)=a^2V(X)+b^2V(Y)+c^2V(Z)\]

も成り立つ.

発展的補足1

 すぐ上の「$\cdots$」で省略された計算過程で,3つの確率変数 $X,Y,Z$ が互いに独立であるとき,任意に選んだ2つも独立であるという事実を用いた.どれも同じであるから $X$ と $Y$ の2つが独立であることを示す.

\[Z=z_1,z_2,\cdots,z_n\]

とする.$X,Y,Z$ が独立であるから,$X,Y,Z$ がとり得る任意の $x_i,y_j,z_k$ について,

\[P(X\!=\!x_i,Y\!=\!y_j,Z\!=\!z_k)\!=\!P(X\!=\!x_i)P(Y\!=\!y_j)P(Z\!=\!z_k)\]

が成り立つ.いま $i$ と $j$ を固定して,上の両辺を $k$ で和をとると,

\[\sum_{k=1}^n P(X\!=\!x_i,Y\!=\!y_j,Z\!=\!z_k)\!=\!\sum_{k=1}^n\{P(X\!=\!x_i)P(Y\!=\!y_j)P(Z\!=\!z_k)\}\]

となる.

 左辺について.「$X=x_i$ かつ $Y=y_j$ となる事象」を細かく分けて考えると「$Z=z_1$ となる事象,$Z=z_2$ となる事象,$\cdots$,$Z=z_n$ となる事象」の $n$ 個の事象に分けることができ,これらは互いに排反である.左辺はこれらの和事象の確率なので $P(X=x_i,Y=y_j)$ となる.

 一方右辺は,

\[\begin{align*} (\mbox{右辺})&=P(X=x_i)P(Y=y_j)\displaystyle\sum_{k=1}^nP(Z=z_k)\\[5pt] &=P(X=x_i)P(Y=y_j)\cdot 1\\[5pt] &=P(X=x_i)P(Y=y_j) \end{align*}\]

となるから

\[P(X=x_i,Y=y_j)=P(X=x_i)P(Y=y_j)\]

となり,確率変数 $X,Y$ の独立性が示された.

発展的補足2

 上では $V(X+Y)=V(X)+V(Y)$ を導くのに $V(X)=E(X^2)-\{E(X)\}^2$ の公式を利用したが,定義通り計算して導くと次のようになる.

 $E(X)=m_X,\ E(Y)=m_Y$ とすると,$E(X+Y)=m_X+m_Y$ であるから,

\[\begin{align*} &V(X+Y)\\[5pt] &=E\left[\ \{\,(X+Y)-(m_X+m_Y)\,\}^2\ \right]\\[5pt] &=E\left[\ \{\,(X-m_X)+(Y-m_Y)\,\}^2\ \right]\\[5pt] &=E\left\{\ (\!X\!-m_X)^2\!+\!2(X\!-\!m_X)(Y\!-\!m_Y)\!+\!(Y\!-\!m_Y)^2\ \right\}\\[5pt] &=E\left\{(X\!-\!m_X)^2\right\}\!+\!2E\left\{(X\!-\!m_X)(Y-m_Y)\right\}\!+\!E\left\{(Y\!-\!m_Y)^2\right\}\\[5pt] &=V(X)+V(Y)+2{\rm Cov}(X,Y) \end{align*}\]

 ただし,$E\left\{(X-m_X)(Y-m_Y)\right\}={\rm Cov}(X,Y)$ とおいた.${\rm Cov}(X,Y)$ は確率分布を用いた $X$ と $Y$ の共分散(covariance)であり,「数学Ⅰ データの分析」に出てきた共分散 $s_{xy}$ の一般形である.

 更に $X$ と $Y$ の相関係数 $\rho_{XY}$ を

\[\rho_{XY}=\frac{{\rm Cov}(X,Y)}{\sqrt{V(X)}\sqrt{V(Y)}}\]

で定義すると,

\[{\rm Cov}(X,Y)=\rho_{XY}\cdot\sqrt{V(X)}\sqrt{V(Y)}\]

であるから,相関係数 $\rho_{XY}$ が0,すなわち確率変数 $X,Y$ が無相関であるならば,${\rm Cov}(X,Y)=0$ となり,$V(X+Y)=V(X)+V(Y)$ が導かれるのである.

 確率変数 $X,Y$ が無相関のとき, \[V(X+Y)=V(X)+V(Y)\]

 最初に示したときには「$X,Y$ が独立であるとき」という仮定をおいたが,ここでの仮定は「$X,Y$ が無相関のとき」となっていることに注意する.一般に $X,Y$ が独立ならば,$E(XY)=E(X)E(Y)$ より

\[\begin{align*} {\rm Cov}(X,Y)&=E\left\{(X-m_X)(Y-m_Y)\right\}\\[5pt] &=E(X-m_X)E(Y-m_Y)\\[5pt] &=0 \end{align*}\]

となるから「独立 $\Longrightarrow$ 無相関」だが,この逆はいえない.$V(X+Y)=V(X)+V(Y)$ が成り立つのは,「$X,Y$ が独立である」という強い仮定をおかなくても「$X,Y$ が無相関である」という少しゆるめた仮定でも成り立つのである.


 これまでに学習したことをまとめると次のようになる:

まとめ \[\begin{align*} &E(aX+b)=aE(X)+b\\[5pt] &V(aX+b)=a^2V(X)\\[5pt] &E(X+Y)=E(X)+E(Y)\\[5pt] \end{align*}\]  以下は, $X$ と $Y$ が独立のとき成り立つ. \[\begin{align*} &E(XY)=E(X)E(Y)\\[5pt] &V(X+Y)=V(X)+V(Y)\\[5pt] &V(aX+bY)=a^2V(X)+b^2V(Y) \end{align*}\]

このページで疑問は解決されましたか?

 こちら から数学に関するご質問・ご要望をお寄せください。


高校数学[総目次]

数学B 第3章 確率分布と統計的な推測

  スライド ノート
1. 確率変数と確率分布  
2. 確率変数の期待値と分散  
3. 確率変数の変換  
4. 確率変数の和と期待値  
5. 独立な確率変数と期待値・分散  
6. 二項分布  
7. 正規分布  
8. 母集団と標本  
9. 推定  
10. 仮説検定