次へ: カーネルトリック
上へ: カーネル学習法
戻る: サポートベクターマシン
図 3:
ソフトマージン(◯がクラス1のサンプルで、
□がクラス-1のサンプルを示す。●と■はサポートベクターを示す。)
|
上述のサポートベクターマシンは、訓練サンプルが線形分離可能な場合につい
ての議論であるが、パターン認識の実問題で線形分離可能な場合は稀である。し
たがって、実際的な課題にサポートベクターマシンを使うには、さらなる工夫が
必要である。まず考えられるのは、多少の識別誤りは許すように制約を緩める方
法である。これは、「ソフトマージン」と呼ばれている。
ソフトマージン法では、マージン
を最大としながら、図
3に示すように、幾つかのサンプルが超平面H1あるいはH2を越
えて反対側に入ってしまうことを許す。反対側にどれくらい入り込んだかの距離
を、パラメータを用いて、
と表す
とすると、その和
|
(14) |
はなるべく小さいことが望ましい。これらの条件から最適な識別面を求める問題
は、制約条件
|
(15) |
の下で、目的関数
|
(16) |
を最小とするパラメータを求める問題に帰着される。ここで、あらたに導入した
パラメータは、第1項のマージンの大きさと第2項のはみ出しの程度と
のバランスを決める定数である。
この最適化問題の解法は、基本的には線形分離可能な場合と同様にふたつの制約
条件に対して、Lagrange乗数、および、を導入し、目的関数
を
と書き換える。パラメータ
、、 に関する偏微分をとする
停留点では、
という関係が成り立つ。これらを目的関数の式に代入すると、制約条件
の下で、目的関数
|
(23) |
を最大とする双対問題が得られる。線形分離可能な場合には、最適解
の値により、平面H1およびH2上の訓練サンプル(サポートベクター)
とそれ以外のサンプルに分類されたが、ソフトマージンの場合には、さらに、H1
およびH2をはさんで反対側にはみ出すサンプルが存在する。それらは、同様に、
最適解の値により区別することができる。具体的には、
なら、平面H1あるいはH2の外側に存在し、学習された識別器に
よって正しく識別される。また、
の場合には、対
応するサンプルは、ちょうど平面H1あるいはH2の上に存在するサポートベクター
となり、これも正しく識別される。
の場合には、対応
するサンプルはサポートベクターとなるが、となり、平面H1 あ
るいはH2の内側に存在することになる。
次へ: カーネルトリック
上へ: カーネル学習法
戻る: サポートベクターマシン
平成14年7月18日