識別したい 個のクラスを
で表し、認識対象を計測
して得られた特徴ベクトルの空間(特徴空間)を
で
表す。
識別対象がクラス に属している確率
は、事前確率(prior probability)あるいは先見確率と呼ばれている。識別対象が
個の
クラスのどれかに属しているとすると、
が満たされ
る。また、あるクラス
に属する対象を計測した時、特徴ベクトル
が観測される確率密度分布を
で表す。この時、当
然、
が満たされる。これらの確率がわかれ
ば、特徴ベクトルとクラスとの確率的な関係はすべて計算できる。例えば、
パターン認識で非常に重要な事後確率(posterior probability)、つま
り、ある対象から特徴ベクトル
が観測された時、それがクラス
に属している確率
は、ベイズの公式(Bayes theorem)から、
![]() |
(2) |
このように特徴ベクトルとクラスの関係が確率統計的知識として事前に完全に わかる場合には、識別の問題は以下のように統計的決定理論の枠組で完全に定 式化される。
特徴ベクトル
に基づき対象がどのクラスに属するかを決定する関数
(決定関数)を
で表し、クラス
の対象をクラス
に決定したときの損失(loss)を
で表すと、損失の期待値(平均
損失)は、
特に0-1損失、つまり、誤った識別に対して均等な損失を与える場合には、損失関数は、
![]() |
(4) |
![]() |
(5) |
また、識別したいクラスが2つ()の場合には、さらに簡単になり、最適な
識別方式は、
![]() |
(7) |
![]() |
(8) |
実際のパターン認識の応用では、個 のクラスのどのクラスにも識別できな
いような対象が含まれることがある。そのような対象は、識別できない対象の
クラスとして区別できれば簡単である。今、そのようなクラスを
とし、
対象を
個のクラス
および識別できない対象のクラ
ス
のいずれかに決定する識別関数
を考えてみよう。
また、損失関数も識別できなかった場合の損失も考えて、
および
とする。この場合には、
最適な識別関数は、
![]() |
![]() |
![]() |
|
![]() |
![]() |
![]() |
(9) |