您好,登錄后才能下訂單哦!
這篇文章主要介紹“LR和SVM的聯系與區別是什么”,在日常操作中,相信很多人在LR和SVM的聯系與區別是什么問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”LR和SVM的聯系與區別是什么”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
聯系
1、LR和SVM都可以處理分類問題,且一般都用于處理線性二分類問題(在改進的情況下可以處理多分類問題)
2 如果不考慮核函數,LR和SVM都是線性分類算法,也就是說他們的分類決策面都是線性的。
這里要先說明一點,原始的LR和SVM都是線性分類器,這也是為什么通常沒人問你決策樹和LR什么區別,決策樹和SVM什么區別,你說一個非線性分類器和一個線性分類器有什么區別?
3 LR和SVM都是監督學習算法。
4 LR和SVM都是判別模型。
判別模型會生成一個表示P(Y|X)的判別函數(或預測模型),而生成模型先計算聯合概率p(Y,X)然后通過貝葉斯公式轉化為條件概率。簡單來說,在計算判別模型時,不會計算聯合概率,而在計算生成模型時,必須先計算聯合概率。或者這樣理解:生成算法嘗試去找到底這個數據是怎么生成的(產生的),然后再對一個信號進行分類。基于你的生成假設,那么那個類別最有可能產生這個信號,這個信號就屬于那個類別。判別模型不關心數據是怎么生成的,它只關心信號之間的差別,然后用差別來簡單對給定的一個信號進行分類。
常見的判別模型有:KNN、SVM、LR,常見的生成模型有:樸素貝葉斯,隱馬爾可夫模型。
5 LR和SVM在學術界和工業界都廣為人知并且應用廣泛。
講完了LR和SVM的相同點,你是不是也認為有必要將他們進行比較一下了呢?而且比較LR和SVM,是不是比讓你比較決策樹和LR、決策樹和SVM、樸素貝葉斯和LR、樸素貝葉斯和SVM更能考察你的功底呢?
區別
1、LR是參數模型,SVM是非參數模型。
2、從目標函數來看,邏輯回歸采用的是Logistical Loss,SVM采用的是hinge loss. 這兩個損失函數的目的都是增加對分類影響較大的數據點的權重,減少與分類關系較小的數據點的權重。
SVM的處理方法是只考慮Support Vectors,也就是和分類最相關的少數點,去學習分類器。而邏輯回歸通過非線性映射,大大減小了離分類平面較遠的點的權重,相對提升了與分類最相關的數據點的權重。
3、邏輯回歸相對來說模型更簡單,好理解,特別是大規模線性分類時比較方便。而SVM的理解和優化相對來說復雜一些,SVM轉化為對偶問題后,分類只需要計算與少數幾個支持向量的距離。在解決非線性問題時,支持向量機采用核函數的機制,而LR通常不采用核函數的方法。
4 線性SVM依賴數據表達的距離測度,所以需要對數據先做normalization,LR不受其影響。
5、SVM的損失函數就自帶正則(損失函數中的1/2||w||^2項),這就是為什么SVM是結構風險最小化算法的原因。而LR必須另外在損失函數上添加正則項。
到此,關于“LR和SVM的聯系與區別是什么”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。