4 - Linear Regression:学習メモ
サイズ:     
機械学習関連の学習に使えそうな本や動画を調べ、整理してみました。(なるべくFREEのものを優先しました)

* 尚、ノートの文章は一部を除きAIに書いてもらったもので、正確性はありません。
* ノートにchatGPT等AIに作ってもらった表を貼るには、「マークダウンのコードに変換して」と頼めば書き出してくれるので、ノートを「markdown」編集モードにして、コピペすれば簡単です。
sub  

Loading ...

    ノート表示(LV2)
4 - Linear Regression:学習メモ   LV2     Link:no title  
#### Linear Regression

「Linear Regression」は、線形回帰という機械学習の基本的なアルゴリズムに焦点を当てています。

------

1. **線形回帰の基本**:
- 線形回帰は、入力特徴量と目標値(出力)の間の線形な関係をモデル化するアルゴリズムです。
- 一元線形回帰と多元線形回帰の違いについて学び、数学的な表現を理解しました。

2. **最小二乗法**:
- 最小二乗法は、線形回帰モデルのパラメータを最適化する方法の一つです。目標は、誤差を最小化することです。
- 最小二乗法を用いて、回帰係数(重み)を推定する手法について学びました。

3. **勾配降下法**:
- 勾配降下法は、最小二乗法のような最適化問題を解くための一般的な手法であり、コスト関数を最小化するようにパラメータを調整します。
- 勾配降下法のアルゴリズムと学習率に関する情報を習得しました。

4. **正則化**:
- 正則化は、過剰適合(過学習)を防ぐために使用される手法で、L1正則化(Lasso)とL2正則化(Ridge)について学びました。
- 正則化の目的や影響について理解し、適切な正則化項を導入する方法を学びました。

5. **特徴選択**:
- 特徴選択は、モデルの性能向上のために重要なステップであり、不要な特徴を削除するプロセスです。
- フィーチャースケーリングや特徴選択のアルゴリズムについて学びました。

6. **評価指標**:
- 回帰モデルの性能評価について学習し、平均二乗誤差(MSE)、決定係数(R^2)、残差プロットなどの評価指標を理解しました。

  sub_notes (LV3)   全て開く   全て閉じる
none   LV3  
0
none

  コメント

  コメントを書く
ads