[AI原理解析]—サポートベクターマシン原理
2024-07-08
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
目次
1. サポートベクターマシン(SVM)の概要
2. 超平面とサポート ベクトル
3. 間隔を最大化する
4. 最適化問題
5. カーネル機能
6. まとめ
1. サポートベクターマシン(SVM)の概要
- 意味 : サポート ベクター マシンは、主にデータ分類問題に使用される教師あり学習モデルです。基本的な考え方は、超平面を介してデータ ポイントを分割し、異なるカテゴリのデータ ポイントが超平面の両側に配置されるようにすることです。
- 分類: サポート ベクター マシンは、主に 3 つのカテゴリに分類されます: 線形分離可能サポート ベクター マシン、線形サポート ベクター マシン、および非線形サポート ベクター マシン。
2. 超平面とサポート ベクトル
- 超平面 : n 次元空間では、超平面は n-1 次元の部分空間です。二次元空間では直線であり、三次元空間では平面です。超平面は w^T * xb = 0 として表すことができます。ここで、w は法線ベクトル、b は切片、x はサンプル点です。
- サポートベクトル : 超平面に最も近いサンプル点はサポート ベクターと呼ばれます。これらの点は、超平面の位置を決定する際に決定的な役割を果たします。
3. 間隔を最大化する
- 関数間隔: 特定のトレーニング セットと超平面の場合、サンプル点 (x_i, y_i) から超平面までの関数間隔は r_i です。