next up previous
次へ: Fisher 情報量 上へ: ニューロン1個のみからなるネットワークの場合 戻る: 尤度

Kullbak-Leiber情報量との関係

一方、この場合の Kullback-Leibler 情報量(Divergence)は、

$\displaystyle D$ $\textstyle =$ $\displaystyle \sum_{p=1}^P \{ t_p \log \frac{t_p}{z_p}
+ (1 - t_p) \log \frac{(1-t_p)}{(1-z_p)} \}$ (203)
  $\textstyle =$ $\displaystyle \sum_{p=1}^P \{ t_p \log t_p + (1-t_p) \log (1-t_p) \}$  
    $\displaystyle - \sum_{p=1}^P \{ t_p \log z_p + (1-t_p) \log (1-z_p) \}$ (204)

となる。ここで、第1項は、ネットワークのパラメータには、無関係な量であ り、第2項は対数尤度 $l$ と等しくなる。つまり、最尤法でパラメータを推 定をすることは、Kullback-Leibler 情報量を最小とするようなパラメータを 求めることと等価になる。



Takio Kurita 平成14年7月3日