Basic Reweighting:学習メモ
サイズ:     
機械学習関連の学習に使えそうな本や動画を調べ、整理してみました。(なるべくFREEのものを優先しました)

* 尚、ノートの文章は一部を除きAIに書いてもらったもので、正確性はありません。
* ノートにchatGPT等AIに作ってもらった表を貼るには、「マークダウンのコードに変換して」と頼めば書き出してくれるので、ノートを「markdown」編集モードにして、コピペすれば簡単です。
sub  

Loading ...

    ノート表示(LV2)
Basic Reweighting:学習メモ   LV2     Link:no title  
#### Basic Reweighting

この講義では、単語の共起行列の作成、重み付け、低次元埋め込み、そして単語埋め込みの評価方法について紹介されています。

------

1. 単語の共起行列 (Word Co-occurrence Matrix): 文書内で一緒に出現する単語のペアの出現回数をカウントし、行列形式で表現する。共起行列は、単語間の関係を捉えるために使用される。

2. 基本的な重み付け (Basic Reweighting): 共起行列の要素に重み付けを行うことで、情報量の高い単語ペアに焦点を当てる。例えば、相互情報量 (Pointwise Mutual Information; PMI) や正規化相互情報量 (Normalized PMI) が使用される。

3. 低次元埋め込み (Low-dimensional Embeddings): 高次元の共起行列を低次元のベクトル空間に埋め込むことで、計算効率を向上させるとともに、単語間の類似性を計算しやすくする。主成分分析 (PCA) や特異値分解 (SVD) が使用されることが多い。

4. 単語埋め込み (Word Embeddings): 低次元埋め込みの結果得られる単語ベクトル。単語埋め込みは、単語間の類似性や意味的関係を捉えるために使用される。例えば、Word2Vec や GloVe が有名な単語埋め込みアルゴリズムである。

5. 単語類似性の評価 (Word Similarity Evaluation): 単語埋め込みが正確に単語間の類似性を捉えているかどうかを評価するために、標準的な単語類似性データセットを用いる。例えば、WordSim-353 や MEN がよく使用される。

  sub_notes (LV3)   全て開く   全て閉じる
none   LV3  
0
none

  コメント

  コメントを書く
ads