次へ: 隠れ部分を含む画像からの元画像の想起
上へ: 自己連装メモリ
戻る: 自己連装メモリ
入力層と出力層に
個の素子を持ち、中間層に
個の線形のニューロ
ンを持つ3層のパーセプトロン(図9)に、入力と出力が
なるべく同じになるように学習させると、中間層には主成分分析と等価な特徴
が自己組織化されることが知られている[13]。
図 11:
MLP for auto-associative memory.
 |
今、このネットワークに学習させる訓練データ集合を
とする。また、
入力ベクトル
に対する中間層のニューロンの出力をならべたベク
トルを
、ネットワー
クの出力ベクトルを
とする。さらに、入力から中間層への結合荷重を
、中間層から出力層への結合荷重を
とする。このとき、中間層のニューロンの
出力および出力層のニューロンの出力は、それぞれ、
のように計算される。
このネットワークの学修では、入力と出力がなるべく同じになるように、すなわ
ち、二乗誤差
 |
(89) |
が最小となるようなパラメータ(結合荷重)が求められる。
これを、最尤推定の観点から解釈するために、入力ベクトルと出力ベクトルとの誤差
が平均
、分散
に従うと仮定すると、その対数尤度
は、
 |
(90) |
となる。これを最大化することは、第2項の
を最小化することと同値になる。
そこで、
 |
(91) |
とおき、これを最大化する結合荷重を最急降下法で求めることを考える。その
ために、
の結合荷重に関する偏微分を求めると、
となる。従って、学習則は、
となる。ここで、
は学習係数である。このような学習により、
次元
の入力画像を情報をなるべく保持したままで
次元に圧縮し、圧縮した情報か
ら画像を再構成するような恒等写像が構成できる。このネットワークに学習した
画像と同じ画像を入力すると、その画像に近い画像を出力することができるよう
になる。つまり、このネットワークにより自己連想メモリが実現できる。
次へ: 隠れ部分を含む画像からの元画像の想起
上へ: 自己連装メモリ
戻る: 自己連装メモリ
平成14年11月18日