next up previous
次へ: パターン認識における学習 上へ: サポートベクターマシン入門 戻る: はじめに

カーネル学習法

 最近、サポートベクターマシン(Support Vector Machine, SVM)と呼ばれるパ ターン認識手法が注目されており、ちょっとしたブームになっている。サポート ベクターマシンは、1960年代にVapnik等が考案したOptimal Separating Hyperplaneを起源とし、1990年代になってカーネル学習法と組み合わせた非線形 の識別手法へと拡張された。カーネルトリックにより非線形の識別関数が構成で きるように拡張したサポートベクターマシンは、現在知られている手法の中でも 最もパターン認識性能の優秀な学習モデルの一つである。ただし、サポートベク ターマシンは、基本的には2つのクラスを識別する識別器を構成するための学習 法であり、文字認識などの多クラスの識別器を構成するためには、複数のサポー トベクターマシンを組み合わせるなどの工夫が必要となる。ここでは、まず、サ ポートベクターマシンを中心にカーネル学習法を用いて訓練サンプルから非線形 の識別器を構成する方法について概説する。一般に、カーネル学習法を用いて学 習された識別器が、訓練サンプルに含まれていない未学習データに対しても高い 識別性能を発揮できるためには、汎化能力を向上させるための工夫が必要である。 サポートベクターマシンでは、「マージン最大化」という基準を用いることでこ れを実現している。



Subsections

平成14年7月18日