4. Linear methods for classification:学習メモ(by AI)
サイズ:     
機械学習関連の学習に使えそうな本や動画を調べ、整理してみました。(なるべくFREEのものを優先しました)

* 尚、ノートの文章は一部を除きAIに書いてもらったもので、正確性はありません。
* ノートにchatGPT等AIに作ってもらった表を貼るには、「マークダウンのコードに変換して」と頼めば書き出してくれるので、ノートを「markdown」編集モードにして、コピペすれば簡単です。
sub  

Loading ...

    ノート表示(LV2)
4. Linear methods for classification:学習メモ(by AI)   LV2     Link:no title  
4章「分類のための線形モデル」では、線形分類モデルの基礎理論、アルゴリズム、実装について詳しく説明されています。

まず、線形分類モデルとは、入力ベクトルを線形変換したものを閾値で分類するモデルであり、ロジスティック回帰や線形判別分析(LDA)などが代表的な手法です。

その後、ロジスティック回帰について詳しく説明されています。ロジスティック回帰は、入力ベクトルと重みベクトルの内積をロジスティック関数に入力し、確率的な出力を得る手法であり、クラスの境界を確率的に表現できることが特徴です。また、ロジスティック回帰の最適化には、最尤推定法や勾配降下法などの手法が用いられます。

次に、線形判別分析について説明されています。線形判別分析は、入力データを低次元空間に射影し、クラス間分散を最大化し、クラス内分散を最小化することで、クラスの分離を行う手法です。また、線形判別分析は、ガウス分布を仮定した場合に、最適な識別面を求めることができます。

さらに、サポートベクターマシン(SVM)についても説明されています。SVMは、線形識別器の一種であり、入力データを超平面で分離することを目的とした手法です。また、SVMは、最適な識別境界を求める際に、マージン最大化という概念を用いることが特徴です。

最後に、ロジスティック回帰、線形判別分析、SVMの比較が行われ、それぞれの手法の長所と短所が紹介されています。また、実際のデータセットを用いた分類タスクの例題が載っているため、理解を深めるためにも、実践的なアプローチができます。

------

(線形判別分析(LDA)、ロジスティック回帰、サポートベクターマシン(SVM)の比較表)

| モデル | 線形判別分析(LDA) | ロジスティック回帰 | サポートベクターマシン(SVM) |
| --- | --- | --- | --- |
| 目的 | 線形分類 | 確率推定 | 線形・非線形分類 |
| 前提条件 | クラスの分布が正規分布 | なし | 線形分離可能な場合は線形 |
| 判別関数 | 線形関数 | 対数オッズ比 | サポートベクトルによる決定境界 |
| 最適化 | クラス間分散/クラス内分散の比 | 最尤推定 | マージン最大化 |
| 評価指標 | 正解率、混同行列 | 対数尤度、AIC、BIC | 正解率、マージン、カーネルトリックの使用 |
| ノイズに強い? | 比較的強い | 比較的強い | マージンが大きい場合に強い |
| オンライン学習に適している? | いいえ | はい | はい |

  sub_notes (LV3)   全て開く   全て閉じる
none   LV3  
0
none

  コメント

  コメントを書く
ads