ベイズの定理とよく出てくる確率分布の復習
機械学習でよく用いられるベイズの定理。 分かっているつもりでも、
あれこれはなんだったっけとなる事がしばしばあったので
今回、復習を兼ねてまとめることにします。
- 条件付き確率
サイコロを投げて何か目が出る、コインを投げて裏か表か決まる。
こういった何か試行を行った結果を事象と言います。
そして、ある事象Aが起こったという前提の元、事象Bが起こる確率を
という風に書きます。これをAのもとでBが起こる条件付き確率と言います。
条件付き確率は
という風に表現でき、をAとBの同時確率(AもBも同時に起きる確率)と言います。ベン図で書くと分かりやすいのですが、AのもとでBが起こる条件付き確率というのは、(AかつBが起きる確率)÷(Aが起きる確率)で表せる事が分かると思います。
そして、上の条件付き確率の式をについて解いた
を乗法定理と言います。
- ベイズの定理
ベイズの定理は乗法定理を用いて簡単に導出できます。
は
とも表せます(AかつBとBかつAは同じ)
この二つの式より
という風に変形でき、この式をベイズの定理と言います。
ここで、機械学習などのパターン認識でよく出てくる言葉として、事後確率、尤度、事前確率といったものがあります。ベイズの定理のAを分類したいクラス、Bをデータとすると、データが得られた元での分類したいクラスに分けられる確率なのでを事後確率、あるクラスにおいて、データが得られる尤もらしさなのでを尤度、データが得られる前の確率なのでを事前確率と言います。
ある文書を特定のクラスに分類したいときなどに用いられるナイーブベイズ識別器や、事後確率が一番大きい事が一番よく起こるという考えの元用いられるMAP推定や損失を考慮したベイズ識別則などがあります。今回この記事では紹介しませんが、非常に分かりやすい解説記事がありますので、紹介しておきます。
ナイーブベイズ
最尤推定、MAP推定
- 確率分布
この記事で紹介しようと思ったのですが、この辺で疲れてきたので今日はここまで。