ソフトマージン法を用いることで、線形分離可能でない場合に対しても線形しき い素子のパラメータを求めることができるようになる。しかし、ソフトマージン 法を用いたとしても、本質的に非線形で複雑な識別課題に対しては、必ずしも良 い性能の識別器を構成できるとは限らない。本質的に非線形な問題に対応するた めの方法として、特徴ベクトルを非線形変換して、その空間で線形の識別を行う 「カーネルトリック」と呼ばれている方法が知られている。この方法を用いるこ とでサポートベクターマシンの性能が飛躍的に向上した。それがサポートベクター マシンを有名にした大きな要因であると考えられる。
一般に、線形分離可能性はサンプル数が大きくなればなるほど難しくなり、逆に、 特徴空間ベクトルの次元が大きくなるほど易しくなる。例えば、特徴ベクトルの 次元が訓練サンプルの数よりも大きいなら、どんなラベル付けに対しても線形分 離可能である。しかし、高次元への写像を行うと、次元の増加に伴い汎化能力が 落ちてしまう。また、難しい問題を線形分離可能にするためには、訓練サンプル と同程度の大きな次元に写像しなければならないので、結果的に膨大な計算量が 必要となってしまう。
今、元の特徴ベクトル
を非線形の写像
によって変換し、
その空間で線形識別を行うことを考えてみよう。例えば、写像として、入
力特徴を2次の多項式に変換する写像を用いるとすると、写像した先で線形識別
を行うことは、もとの空間で2次の識別関数を構成することに対応する。一般に
は、こうした非線形の写像によって変換した特徴空間の次元は非常に大きくなり
がちである。しかし、サポートベクターマシンの場合には、幸いにも、目的関数
や識別関数が入力パターンの内積のみに依存した形になっており、内積
が計算できれば最適な識別関数を構成することが可能である。つまり、もし非線
形に写像した空間での二つの要素
と
の内積が
(24) |
実用的には、は計算が容易なものが望ましい。例えば、多項式カーネル
(25) |
(26) |
(27) |
(28) |
(29) |