次へ: 重回帰分析のための汎化性向上の工夫
上へ: 識別のための線形手法と汎化性
戻る: 単純パーセプトロンの学習
これに対して、出力ユニットの入出力関数として線形関数を用い、ネットワーク
の出力と教師信号と平均2乗誤差を最小にするような結合荷重を推定する場合に
は、平均2乗誤差の意味で最適なパラメータを求めることができる。
今、 個の学習用のデータを
とする。
ここで、
が入力ベクトルで、その入力ベクトルに対する望みの出
力(教師信号)が である。この時、この学習用のデータに対する2乗誤
差は、
|
(34) |
となる。最適なパラメータを求めるために、パラメータ(結合荷重)
を逐次更新することにより次第に最適なパラメータに近似さ
せる最急降下法を用いることにすると、2乗誤差
のパ
ラメータに関する偏微分を計算する必要がある。2乗誤差
のパラメータに関する偏微分は、
|
(35) |
となる。また、バイアスに関する偏微分は、
|
(36) |
ただし、
である。従って、最急降下法によるパラメー
タの更新式は、
のようになる。ここで、は、学習係数(learning rate)である。この更
新法は、Widrow-Hoffの学習規則(Widrow-Hoff learning rule) と呼ばれている。
また、教師信号とネットワークの出力の誤差 に応じてパ
ラメータを修正するため、デルタルール(delta rule) と呼ばれることもある。
Widrow-Hoffの学習規則では、最急降下法を用いて逐次近似によりパラメータを
推定するが、重回帰分析の場合には、遂次学習ではなく、最適な解を行列計算に
より陽に求めることが可能である。
今、訓練サンプルデータの入力ベクトルを並べた
次元の行列
を
とし、教師信号を並
べた次元のベクトルを
とする。これらを用
いると2乗誤差は、
|
(39) |
のように書ける。これをパラメータ
で偏微分してとおくと、
|
(40) |
となる。従って、が正則ならば、最適なパラメータ
は、
|
(41) |
となる。これは、重回帰分析(multiple regression analysis)と呼ばれる最も
基本的な多変量データ解析と等価である。重回帰分析では、
は説明
変数 (explanatory variable)、 は目的変数(criterion variable)と呼ばれ
ている。
次へ: 重回帰分析のための汎化性向上の工夫
上へ: 識別のための線形手法と汎化性
戻る: 単純パーセプトロンの学習
平成14年7月18日