樸素貝葉斯等常見機器學習算法的介紹及其優缺點比較
大小:0.1 MB 人氣: 2017-09-29 需要積分:0
偏差和方差與模型復雜度的關系使用下圖更加明了:
當模型復雜度上升的時候,偏差會逐漸變小,而方差會逐漸變大。
常見算法優缺點
1.樸素貝葉斯
樸素貝葉斯屬于生成式模型(關于生成模型和判別式模型,主要還是在于是否是要求聯合分布),非常簡單,你只是做了一堆計數。如果注有條件獨立性假設(一個比較嚴格的條件),樸素貝葉斯分類器的收斂速度將快于判別模型,如邏輯回歸,所以你只需要較少的訓練數據即可。即使NB條件獨立假設不成立,NB分類器在實踐中仍然表現的很出色。它的主要缺點是它不能學習特征間的相互作用,用mRMR中R來講,就是特征冗余。引用一個比較經典的例子,比如,雖然你喜歡BradPitt和TomCruise的電影,但是它不能學習出你不喜歡他們在一起演的電影。
優點:
· 樸素貝葉斯模型發源于古典數學理論,有著堅實的數學基礎,以及穩定的分類效率。
· 對小規模的數據表現很好,能個處理多分類任務,適合增量式訓練;
· 對缺失數據不太敏感,算法也比較簡單,常用于文本分類。
非常好我支持^.^
(0) 0%
不好我反對
(0) 0%