Dimensionality Reduction:学習メモ
サイズ:     
機械学習関連の学習に使えそうな本や動画を調べ、整理してみました。(なるべくFREEのものを優先しました)

* 尚、ノートの文章は一部を除きAIに書いてもらったもので、正確性はありません。
* ノートにchatGPT等AIに作ってもらった表を貼るには、「マークダウンのコードに変換して」と頼めば書き出してくれるので、ノートを「markdown」編集モードにして、コピペすれば簡単です。
sub  

Loading ...

    ノート表示(LV2)
Dimensionality Reduction:学習メモ   LV2     Link:no title  
#### Dimensionality Reduction

この講義では、次元削減の理論と手法が紹介されており、特に自然言語処理の文脈での応用が強調されています。

------

1. 次元削減 (Dimensionality Reduction): 高次元データセットの次元を削減し、データの可視化、モデルの計算負荷の軽減、および過学習の防止を目指す。

2. 主成分分析 (PCA: Principal Component Analysis): 線形変換によってデータの分散が最大となるような新しい特徴空間への射影を行い、次元削減を実現する。

3. 特異値分解 (SVD: Singular Value Decomposition): 行列の分解を行い、データの次元削減や潜在意味空間 (LSA: Latent Semantic Analysis) の構築に利用される。

4. t-分布確率的近傍埋め込み法 (t-SNE: t-Distributed Stochastic Neighbor Embedding): 高次元データの類似性を保持しつつ、低次元空間への埋め込みを行う。特に可視化に適した次元削減手法。

5. 多様体学習 (Manifold Learning): 高次元データの構造を捉えるために、非線形な次元削減手法を使用する。例: Isomap, Locally Linear Embedding (LLE), Laplacian Eigenmaps など。

6. 自動符号化器 (Autoencoders): ニューラルネットワークを使用して、データを低次元表現にエンコードし、再び高次元データにデコードすることで、次元削減を実現する。

7. 単語埋め込み (Word Embeddings): 自然言語処理において、単語やフレーズを低次元ベクトル空間にマッピングし、意味的類似性や構文的類似性を保持する。

  sub_notes (LV3)   全て開く   全て閉じる
none   LV3  
0
none

  コメント

  コメントを書く
ads