3. Linear methods for regression:学習メモ(by AI)
サイズ:     
機械学習関連の学習に使えそうな本や動画を調べ、整理してみました。(なるべくFREEのものを優先しました)

* 尚、ノートの文章は一部を除きAIに書いてもらったもので、正確性はありません。
* ノートにchatGPT等AIに作ってもらった表を貼るには、「マークダウンのコードに変換して」と頼めば書き出してくれるので、ノートを「markdown」編集モードにして、コピペすれば簡単です。
sub  

Loading ...

    ノート表示(LV2)
3. Linear methods for regression:学習メモ(by AI)   LV2     Link:no title  
3章「回帰のための線形モデル」では、線形回帰に関する理論やアルゴリズムについて詳しく解説されています。

線形回帰は、入力変数(説明変数)と出力変数(目的変数)の間の線形な関係をモデル化する方法です。この章では、単回帰分析や多重回帰分析など、線形回帰の基礎となる概念について説明されています。

具体的には、線形回帰の最小二乗法、最小二乗法の誤差分散、最小二乗法の残差分析、回帰モデルの選択、交差検証、ロバスト回帰、リッジ回帰、LASSO回帰などについて解説されています。

また、線形回帰におけるデータの前処理や変数選択、共線性の問題についても触れられています。

------
(ロバスト回帰、リッジ回帰、LASSO回帰の比較)

| 回帰手法 | 概要 | 利点 | 欠点 |
| ------- | ------ | ------- | ------- |
| ロバスト回帰 | 外れ値に影響を受けにくい回帰手法。最小二乗法ではなく、損失関数にロバスト性のあるものを使用する。 | 外れ値に強く、頑健性がある。 | 一部の外れ値が大きな影響を与えることがある。 |
| リッジ回帰 | L2正則化を行った回帰手法。大きな係数を持つ特徴量にペナルティを課し、過剰適合を抑制する。 | 過剰適合を防止するため、汎化性能が高い。 | 特徴量が多い場合、重みが均等に割り振られるため、重要な特徴量を見逃す可能性がある。 |
| LASSO回帰 | L1正則化を行った回帰手法。特徴量を選択する効果がある。 | 重要でない特徴量の係数が0になるため、モデルの解釈性が向上する。 | 特徴量が多い場合、選択される特徴量が偏ることがある。 |

  sub_notes (LV3)   全て開く   全て閉じる
none   LV3  
0
none

  コメント

  コメントを書く
ads