nano_exit

基礎的なことこそ、簡単な例が必要だと思うのです。

二項分布まとめ

二項分布の平均と分散がわかりにくかったのでまとめ。
参考:二項分布の平均と分散の二通りの証明 | 高校数学の美しい物語


\displaystyle
X_i = 0, 1
\\
\displaystyle
P( X_i = 1 ) = p
\\
\displaystyle
P( X_i = 0 ) = 1 - p
\\
\displaystyle
E[ X_i ] = \sum^1_{k=0} k P( X_i = k ) = 0 \cdot ( 1 - p) + 1 \cdot p = p
\\
\displaystyle
var[ X_i ] = \sum^1_{k=0} ( k - E[ X_i ] )^2 P( X_i = k ) = \sum^1_{k=0} ( k - p )^2 P( X_i = k )
\\
\displaystyle
\qquad
  = p^2 ( 1 - p) + ( 1 - p )^2 p  = p ( 1 - p )

このとき、二項分布 B( n, p )に従う確率変数 Xと、 X = kとなる確率 P_n( X = k ) は次のように定義される。

\displaystyle
X = \sum_{i = 1}^n X_i
\\
\displaystyle
P_n( X = k ) = \begin{pmatrix} n \\ k \end{pmatrix} p^k ( 1 - p )^{ n - k }

 P_nが規格化されていることを確認。

\displaystyle
\sum_{k=0}^n P_n( X = k ) = \sum_{k=0}^n \begin{pmatrix} n \\ k \end{pmatrix} p^k ( 1 - p )^{ n - k } = ( p + ( 1 - p ) )^n = 1
\\
\displaystyle
\because
\sum_{k=0}^{n} \begin{pmatrix} n \\ k \end{pmatrix} x^k y^{ n - k } = ( x + y )^n

二項分布に従う確率変数 Xの平均は、

\displaystyle
E[X] = E\left[ \sum_{i = 1}^n X_i \right] = \sum_{i=1}^{n} E[ X_i ] = p \sum_{i=1}^n = np
もしくは

\displaystyle
E[X] =\sum_{k=0}^n k P_n( X = k ) = \sum_{k=0}^n k \begin{pmatrix} n \\ k \end{pmatrix} p^k ( 1 - p )^{ n - k }
\\
\displaystyle
\qquad
  = \sum_{k=1}^n k \begin{pmatrix} n \\ k \end{pmatrix} p^k ( 1 - p )^{ n - k }
\\
\displaystyle
\qquad
  = n p \sum_{k=1}^n \begin{pmatrix} n-1 \\ k-1 \end{pmatrix} p^{k-1} ( 1 - p )^{ n - k }
\\
\displaystyle
\qquad
  = n p \sum_{k=1}^n \begin{pmatrix} n-1 \\ k-1 \end{pmatrix} p^{k-1} ( 1 - p )^{ (n-1) - (k-1) }
\\
\displaystyle
\qquad
  = n p \sum_{k'=0}^{n'} \begin{pmatrix} n' \\ k' \end{pmatrix} p^{k'} ( 1 - p )^{ n' - k' }
\\
\displaystyle
\qquad
  = n p

二項分布に従う確率変数 Xの分散は、

\displaystyle
var[  X ] = var\left[ \sum_{i = 1}^n X_i \right] = \sum_{i=1}^{n} var[ X_i ] = p ( 1 - p ) \sum_{i=1}^n = np(1-p)
もしくは

\displaystyle
var[X] =E[ X^2 ] - (E[ X ])^2 = E[ X ^2] - (np)^2
\\
\displaystyle
E[ X^2 ] = \sum_{k=0}^n k^2 P_n( X = k ) = \sum_{k=0}^n ( k ( k - 1 ) + k ) P_n( X = k )
\\
\displaystyle
\qquad
 = \sum_{k=0}^n k ( k - 1 ) P_n( X = k ) + \sum_{k=0}^n k P_n( X = k )
\\
\displaystyle
\qquad
  = \sum_{k=0}^n k ( k - 1 ) P_n( X = k ) + E[X]
\\
\displaystyle
\qquad
  = \sum_{k=0}^n k ( k - 1 ) P_n( X = k ) + np
\\
\displaystyle
\qquad
  = \sum_{k=2}^n k ( k - 1 ) P_n( X = k ) + np
\\
\displaystyle
\qquad
  = n ( n - 1 ) p^2 \sum_{k=2}^n \begin{pmatrix} n - 2 \\ k - 2 \end{pmatrix} p^{k-2} ( 1 - p )^{ (n-2) - (k-2) } + np
\\
\displaystyle
\qquad
  = n ( n - 1 ) p^2 \sum_{k''=0}^{n''} \begin{pmatrix} n'' \\ k'' \end{pmatrix} p^{k''} ( 1 - p )^{ n'' - k'' } + np
\\
\displaystyle
\qquad
  = n ( n - 1 ) p^2 + np
\\
\displaystyle
\qquad
  = (np)^2 - np^2 + np
\\
\displaystyle
\qquad
  = (np)^2 + np ( 1 - p )
\\
\displaystyle
\therefore
var[ X ] =np ( 1 - p )