技術共有

[AI原理解析]—サポートベクターマシン原理

2024-07-08

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

目次

1. サポートベクターマシン(SVM)の概要

2. 超平面とサポート ベクトル

3. 間隔を最大化する

4. 最適化問題

5. カーネル機能

6. まとめ


1. サポートベクターマシン(SVM)の概要

  • 意味 : サポート ベクター マシンは、主にデータ分類問題に使用される教師あり学習モデルです。基本的な考え方は、超平面を介してデータ ポイントを分割し、異なるカテゴリのデータ ポイントが超平面の両側に配置されるようにすることです。
  • 分類: サポート ベクター マシンは、主に 3 つのカテゴリに分類されます: 線形分離可能サポート ベクター マシン、線形サポート ベクター マシン、および非線形サポート ベクター マシン。

2. 超平面とサポート ベクトル

  • 超平面 : n 次元空間では、超平面は n-1 次元の部分空間です。二次元空間では直線であり、三次元空間では平面です。超平面は w^T * xb = 0 として表すことができます。ここで、w は法線ベクトル、b は切片、x はサンプル点です。
  • サポートベクトル : 超平面に最も近いサンプル点はサポート ベクターと呼ばれます。これらの点は、超平面の位置を決定する際に決定的な役割を果たします。

3. 間隔を最大化する

  • 関数間隔: 特定のトレーニング セットと超平面の場合、サンプル点 (x_i, y_i) から超平面までの関数間隔は r_i です。