## 大数の法則とは
大数の法則とは、試行回数を重ねるとデータの平均は真の平均に近づくという法則。
例:1/2で表が出るコインを10000回投げると、表が出る割合は1/2に近づいていく
## 大数の弱法則の定式化
平均$\mu$、分散$\sigma^2$の分布に互いに独立に従う確率変数$X_1, X_2,...$と、任意の$\epsilon > 0$に対して、
$\lim_{n \rightarrow \infty} P\left(\left|\frac{X_1 + X_2 + \cdots + X_n}{n} - \mu\right| \geq \epsilon\right) = 0$
「サンプル平均と真の平均の差が$\epsilon$以上になってしまう確率は試行回数$n$を増やすと0に収束する」ということを意味する。
## 大数の強法則の定式化
平均$\mu$、分散$\sigma^2$の分布に互いに独立に従う確率変数$X_1, X_2,...$に対して、$P\left(\lim_{n\rightarrow \infty} \frac{X_1 + X_2 + \cdots + X_n}{n} - \mu\right) = 1$
つまり算術平均は母平均に概収束する(概収束ってなんやねん)。
## 弱法則の証明
チェビシェフの不等式: $P(|X-E[X] | \geq \epsilon) \leq \frac{Var[X]}{\epsilon^2}$
**証明**
サンプル平均を表す確率変数を$Y_n = \frac{X_1 + X_2 + \cdots + X_n}{n}$
とおくと、期待値、分散の性質より$E[Y_n] = \frac{n\mu}{n} = \mu$
$Var[Y_n] = \frac{n\sigma^2}{n^2} = \frac{\sigma^2}{n}$
よって、確率論におけるチェビシェフの不等式より、$P(|Y_n - \mu| \geq \epsilon) \leq \frac{\sigma^2}{n\epsilon^2}$
両辺$n \rightarrow \infty$の極限を取ることで大数の弱法則を得る:$\lim_{n\rightarrow \infty}P(|Y_n - \mu| \geq \epsilon) = 0$
## 参考文献
- [大数の法則をわかりやすく【意味・具体例・証明】 | 高校数学の美しい物語](https://manabitimes.jp/math/990)
- [大数の弱法則と強法則の違い #数学 - Qiita](https://qiita.com/ketchup1216/items/32533925cc7b0857c0ef)