test
サイズ:     
機械学習関連の学習に使えそうな本や動画を調べ、整理してみました。(なるべくFREEのものを優先しました)

* 尚、ノートの文章は一部を除きAIに書いてもらったもので、正確性はありません。
* ノートにchatGPT等AIに作ってもらった表を貼るには、「マークダウンのコードに変換して」と頼めば書き出してくれるので、ノートを「markdown」編集モードにして、コピペすれば簡単です。
sub  

Loading ...

    ノート表示(LV2)
test   LV2     Link:no title  
ナイーブベイズ分類器(Naive Bayes classifier)は、ベイズの定理と特徴の条件付き独立性を仮定して、データを分類するための統計的モデルです。特に、各特徴が互いに独立であるという仮定を行います。

ベイズの定理は以下のように表されます。

P(C_k | X) = \frac{P(X | C_k) \cdot P(C_k)}{P(X)}
ここで、P(C_k | X)はクラスC_kが与えられた特徴ベクトルXの事後確率を表します。P(X | C_k)は特徴ベクトルXがクラスC_kに属する条件付き確率を表し、各特徴が独立であるという仮定により次のように展開できます。

P(X | C_k) = P(x_1 | C_k) \cdot P(x_2 | C_k) \cdot \ldots \cdot P(x_n | C_k)
P(C_k)はクラスC_kの事前確率を表し、P(X)は証拠の確率として正規化するための定数です。

ナイーブベイズ分類器では、トレーニングフェーズでトレーニングデータを用いて各クラスの事前確率P(C_k)と各特徴の条件付き確率P(x_i | C_k)を推定します。テストフェーズでは、与えられたテストデータの特徴ベクトルXを用いて、上記の式を計算し、最も高い事後確率を持つクラスにデータを分類します。

ナイーブベイズ分類器は、特徴が独立であるという強い仮定を持つため、実際のデータセットにおいてはこの仮定が成り立たない場合もあります。しかし、簡潔なモデルであり、高速で効果的な分類を行うことができるため、実践的な問題に広く利用されています。

  sub_notes (LV3)   全て開く   全て閉じる
none   LV3  
0
none

  コメント

  コメントを書く
ads