## 大数の法則とは 大数の法則とは、試行回数を重ねるとデータの平均は真の平均に近づくという法則。 例:1/2で表が出るコインを10000回投げると、表が出る割合は1/2に近づいていく ## 大数の弱法則の定式化 平均$\mu$、分散$\sigma^2$の分布に互いに独立に従う確率変数$X_1, X_2,...$と、任意の$\epsilon > 0$に対して、 $\lim_{n \rightarrow \infty} P\left(\left|\frac{X_1 + X_2 + \cdots + X_n}{n} - \mu\right| \geq \epsilon\right) = 0$ 「サンプル平均と真の平均の差が$\epsilon$以上になってしまう確率は試行回数$n$を増やすと0に収束する」ということを意味する。 ## 大数の強法則の定式化 平均$\mu$、分散$\sigma^2$の分布に互いに独立に従う確率変数$X_1, X_2,...$に対して、$P\left(\lim_{n\rightarrow \infty} \frac{X_1 + X_2 + \cdots + X_n}{n} - \mu\right) = 1$ つまり算術平均は母平均に概収束する(概収束ってなんやねん)。 ## 弱法則の証明 チェビシェフの不等式: $P(|X-E[X] | \geq \epsilon) \leq \frac{Var[X]}{\epsilon^2}$ **証明** サンプル平均を表す確率変数を$Y_n = \frac{X_1 + X_2 + \cdots + X_n}{n}$ とおくと、期待値、分散の性質より$E[Y_n] = \frac{n\mu}{n} = \mu$ $Var[Y_n] = \frac{n\sigma^2}{n^2} = \frac{\sigma^2}{n}$ よって、確率論におけるチェビシェフの不等式より、$P(|Y_n - \mu| \geq \epsilon) \leq \frac{\sigma^2}{n\epsilon^2}$ 両辺$n \rightarrow \infty$の極限を取ることで大数の弱法則を得る:$\lim_{n\rightarrow \infty}P(|Y_n - \mu| \geq \epsilon) = 0$ ## 参考文献 - [大数の法則をわかりやすく【意味・具体例・証明】 | 高校数学の美しい物語](https://manabitimes.jp/math/990) - [大数の弱法則と強法則の違い #数学 - Qiita](https://qiita.com/ketchup1216/items/32533925cc7b0857c0ef)