読者です 読者をやめる 読者になる 読者になる

画像処理とか機械学習とか

画像処理や機械学習関連の事について気まぐれで書いていきます。歩行者検出関係が多いと思います。ハリネズミもたまに出現します。

最尤推定法について

 前回の記事で、最尤推定法とベイズ推定の違いについて書きました。
今回は、最尤推定法に注目し、まとめていきたいと思います。

 この記事に限らず、本ブログの記事は自分も勉強しつつ書いていますので、間違いなどありましたらご指摘いただけると助かります。

 最尤推定法は、統計的機械学習で現在もよく用いられる手法の一つです。
画像から特徴量(輝度勾配など)を抽出し、得られた特徴量{ \displaystyle x }に何か確率密度関数を近似させたいとします。有限個のパラメータで記述された確率密度関数たちの事をパラメトリックモデルと言います。

 パラメトリックモデルのパラメータを{ \displaystyle θ }(いくつかのパラメータが集まったベクトル)とする時、得られた特徴量{ \displaystyle x }がうまく生起するように{ \displaystyle θ }を調節し、確率密度関数を近似することを最尤推定と言います。

 パラメータ{ \displaystyle θ }のもとで、特徴量{ \displaystyle x }が生起する確率を{ \displaystyle p(x|θ) }と表し、これを尤度と言います。最尤推定では、この尤度を最大とするパラメトリックモデルのパラメータ{ \displaystyle θ }を探すことが目的となります。

 今回、パラメトリックモデルとしてよく用いられる例としてガウスモデルを例に挙げたいと思います。
 入力{ \displaystyle x }の次元によって式は変化しますが、一般的に入力{ \displaystyle x }{ \displaystyle n }次元の時のガウスモデルの式は以下のように表すことが出来ます。

{ \displaystyle p(x)=\frac{1}{(2\pi)^{\frac{d}{2}}|\Sigma|^\frac{1}{2}}\exp(-\frac{1}{2}(x-\mu)^t\Sigma^{-1}(x-\mu)) }

{ \displaystyle \Sigma }が分散共分散行列、{ \displaystyle \mu }が期待値を表します。簡単に言うと、{ \displaystyle \Sigma }ガウスの広がり具合を表し、{ \displaystyle \mu }ガウスの位置を表します。

matlabを使って二次元のガウス分布をプロットした例を以下に載せます。

f:id:hiro2o2:20160211125741p:plain

{ \displaystyle \mu=(0,0)}, { \displaystyle \Sigma=(4,1; 1,2)}正規分布

f:id:hiro2o2:20160211131848p:plain

{ \displaystyle \mu=(0,0)}, { \displaystyle \Sigma=(5,1; 1,3)}正規分布

f:id:hiro2o2:20160211131940p:plain

{ \displaystyle \mu=(3,0)}, { \displaystyle \Sigma=(4,1; 1,2)}正規分布

 

以上の画像より、分散が大きくなると広がり、期待値が変化するとガウスが移動していることが分かると思います。

簡単のために、1次元のガウスモデルの最尤推定の例を挙げたいと思います。

最尤推定では、尤度方程式という、尤度をパラメータで偏微分したものを解くと各パラメータの最尤推定の解が得られます。

1次元のガウスモデルにおいて、尤度をパラメータで偏微分した結果は、真の期待値{ \displaystyle \mu}は標本(得られたデータ)の平均で表現でき、真の分散共分散行列は、標本の分散共分散行列で推定します。

実験で用いる真の分布は、{ \displaystyle \mu=0, \sigma=1}ガウスモデルです。
推定に用いる標本(データ)は、真の分布からランダムで生んだ標本5つを用います。

その結果、以下のような推定結果となりました。
赤線が真の分布で、青線が推定結果です。最尤推定により真の分布がある程度近似できていることが分かりました。

f:id:hiro2o2:20160211133449p:plain

標本の数を5個から100個に増やした結果が以下の通りとなります。

十分な数のデータが得られれば、真の分布が十分に近似できることが分かりました。

f:id:hiro2o2:20160211133831p:plain

今回は、シンプルなガウスモデルを用いたため、サンプル数を十分に用意すると真の分布を近似できるようになったが、もっと複雑なモデルを用いる場合(混合ガウスモデルなど)は、パラメータの初期値によっては局所的な最適解に落ち着いてしまい、真の分布が上手く近似できないという問題もあります。