next up previous
次へ: 部分的に例外を含んだ画像の想起実験 上へ: 部分的な隠れへの対応 戻る: 自己連想メモリを実現する3層パーセプトロン

隠れ部分を含む画像からの元画像の想起

上述の恒等写像を学習する多層パーセプトロンに訓練データ集合として画像集 合を学習させた後、入力としてある程度ノイズを含んだ画像を与えると、ノイ ズをある程度除去した近似画像が想起できる。しかし、画像の一部が他のもの に置き換わっているような場合には、その入力に対する出力画像のすべての画 素が、置き換わった部分の影響を受けてしまう。部分的に例外値を含む画像か らなるべく元の画像に近い画像を想起できるようにするために、本論文では、 画像の画素毎に入力と想起された出力との差に基づいた「確からしさ」を定義 し、それを基にして入力画像の各画素を修正することを繰り返すことで元の画 像を想起する方法を考える。図 11 に例外を含む画像から元画像 を想起するネットワークの概要を示す。また、想起のための具体的な繰り返し 手順を以下に示す。

STEP 0:
繰り返し回数を表す変数 $t$$t=0$ と初期化し、自己連想 メモリの入力 $\hat{\mbox{\boldmath {$x$}}}(0)$に入力画像そのもの $\mbox{\boldmath {$x$}}$ を代入する。

STEP 1:
自己連想メモリに $\hat{\mbox{\boldmath {$x$}}}(t)$を入力し、出力 $\mbox{\boldmath {$z$}}(t)$を想起させる。

STEP 2:
入力画像 $\mbox{\boldmath {$x$}}$と想起された画像 $\mbox{\boldmath {$z$}}(t)$との成分 毎の二乗誤差 $ \varepsilon^2_i(t) = (x_i - z_i(t))^2$ を求め、 各成分の「確からしさ」$\beta_i(t)$ を次式により計算する。
\begin{displaymath}
\beta_i(t) = \exp \left( - \frac{\varepsilon^2_i(t)}{2\ \sigma^2(t)}
\right),
\end{displaymath} (93)

ここで、$\sigma(t)$ は、 $\varepsilon_i(t)$ の標準偏差の推定値であり、ロ バスト統計の手法[44]を用いて、
\begin{displaymath}
\sigma(t) = 1.4826 \left( 1 + \frac{5}{N - 1} \right)
\mathop{\rm med}_i \sqrt{\varepsilon^2_i(t)}
\end{displaymath} (94)

のように計算する。なお、${\rm med}(x)$ は、$x$ の中央値(メディアン)を表 す。

STEP 3:
自己連想メモリに対する新しい入力 $\hat{\mbox{\boldmath {$x$}}}(t+1)$ を、各画素の「確からしさ」を利用して、
\begin{displaymath}
\hat{x}_i(t+1) = \beta_i(t) x_i + (1 - \beta_i(t))\ z_i(t)
\end{displaymath} (95)

のように計算する。繰り返し回数を $t \leftarrow t+1$ のように更新し、STEP 1 から同様の処理を繰り返す。

ここで、STEP 2の処理は、栗田[56]が部分的に例外値を含む 画像間のマッチングのために提案したロバストテンプレートマッチングで例外値 を検出する手法を「確からしさ」を求めるために拡張したものである。この手順 を適当な回数繰り返すことで、例外値を無視して元の画像を想起することが可能 となる。この時、式(95)は、確からしさの高い(誤差の小さい)画 素では入力画像の情報をそのまま信頼して利用し、確からしさの低い(誤差の大 きい) 画素では、入力データを無視し、代わりに自己連想メモリによって想起さ れた推定値を信頼して利用することを意味している。



Subsections

平成14年11月18日