中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

機器學習實踐中應避免的7種常見錯誤

2018-07-20    來源:編程學習網(wǎng)

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

統(tǒng)計建模和工程開發(fā)很相似。

在工程開發(fā)中,人們有多種方法搭建一套鍵-值存儲系統(tǒng),每種設計針對使用模式有一套不同的假設。在統(tǒng)計建模中,也有很多算法來構造一個分類器,每種算法對數(shù)據(jù)也有各自的假設集合。

當處理少量數(shù)據(jù)時,因為實驗成本很低,我們盡可能多的嘗試各種算法,從而選出效果最優(yōu)的算法。但提到“大數(shù)據(jù)”,提前分析數(shù)據(jù),然后設計相應“管道”模型(預處理,建模,優(yōu)化算法,評價,產(chǎn)品化)是事半功倍的。

正如在我以前的文章里提到,每個給定的建模問題都存在幾十種解法。每個模型會提出不同的假設條件,我們也很難直觀辨別哪些假設是合理的。在業(yè)界,大多數(shù)從業(yè)人員傾向于挑選他們熟悉的建模算法,而不是最適合數(shù)據(jù)集的那個。在這篇文章中,我將分享一些常見的認識誤區(qū)(要避免的)。在今后的文章中再介紹一些最佳實踐方法(應該做的)。

1. 想當然地使用默認損失函數(shù)

很多從業(yè)者喜歡用默認的損失函數(shù)(比如平方誤差)來訓練和選擇最優(yōu)模型。事實上,默認的損失函數(shù)很少能滿足我們的業(yè)務需求。拿詐騙檢測來說。當我們檢測詐騙交易時,我們的業(yè)務需求是盡量減少詐騙帶來的損失。然而現(xiàn)有二元分類器默認的損失函數(shù)對誤報和漏報的危害一視同仁。對于我們的業(yè)務需求,損失函數(shù)不僅對漏報的懲罰要超過誤報,對漏報的懲罰程度也要和詐騙金額成比例。而且,詐騙檢測的訓練數(shù)據(jù)集往往正負樣本極度不均衡。在這種情況下,損失函數(shù)就要偏向于照顧稀少類(如通過升/降采樣等)。

2. 用普通線性模型處理非線性問題

當需要構建一個二元分類器時,很多人馬上就想到用邏輯回歸,因為它很簡單。但是,他們忘記了邏輯回歸是線性模型,非線性因素的交叉特征需要靠手工編碼處理;氐絼偛旁p騙檢測的例子,要獲得好的模型效果,就需要引入“帳單地址=送貨地址 && 交易金額<$ 50”之類的高階交叉特征。因此,在處理包含交叉特征的問題上我們應該盡可能選擇非線性模型,比如有核函數(shù)的SVM,或者基于樹的分類器。

3.忽視異常值

異常值很有意思。根據(jù)上下文情況,它們要么需要被特別處理,要么應該被完全忽略。就拿收入預測來說。如果觀察到收入有異常尖峰,我們可能要加倍注意他們,并分析是什么原因造成這些峰值。但如果異常值是由于機械誤差、測量誤差或者其它任何非普遍化因素導致的,那我們最好在準備訓練數(shù)據(jù)之前過濾掉這些異常值。

有些模型算法對異常值非常靈敏。比如,AdaBoost 會對它們“倍加關注”,賦予一個相當大的權重值。相反,決策樹就簡單地把它們當做錯誤分類來處理。如果數(shù)據(jù)集包含相當數(shù)量的異常值,那么,使用一種具有異常值魯棒性的建模算法或直接過濾掉異常值是非常重要的。

4. 樣本數(shù)遠小于特征數(shù)時使用高方差模型

SVM是最流行的建模算法之一,它的強大功能之一就在于用不同核函數(shù)去擬合模型。SVM內(nèi)核被認為是可以自發(fā)組合現(xiàn)有特征,從而形成更高維度特征空間的方法。由于獲得這項強大功能的代價幾乎忽略不計,大多數(shù)人在訓練SVM模型時默認使用核函數(shù)。然而,當訓練樣本數(shù)遠遠少于特征維度時(n<<p)—— 常見于醫(yī)學數(shù)據(jù)——高維特征空間數(shù)據(jù)過擬合風險會隨之增加。事實上,在上述情況下我們應該完全避免使用高方差模型。

5. 不做標準化的L1/L2正則化

使用L1或L2正則化是線性回歸或邏輯回歸懲罰權重系數(shù)值過大的常用方法。然而,許多人在使用這些正則化方法時都沒有意識到標準化的重要性。

再回到詐騙檢測,設想一個把交易金額作為特征的線性回歸模型。如果不做正則化,當交易金額以美元為單位時,其擬合系數(shù)將會是以美分為單位時的100倍。同時,因為L1/L2正則化對系數(shù)值大的項懲罰更重,美元作為單位時交易金額這個維度將會受到更多的懲罰。因此,正則化并不是一視同仁,它往往在更小尺度上懲罰特征。為了緩解這一問題,需要在預處理過程中標準化所有特征,使它們處在平等的位置。

6.不考慮線性相關就使用線性模型

假設構建一個含有X1和X2兩個變量的線性模型,真實的模型是Y = X1 + X2。理想情況下,如果數(shù)據(jù)僅含有少量噪點,線性回歸模型能夠還原真實模型。然而,如果X1和X2存在線性相關,對于大多數(shù)優(yōu)化算法而言,無論Y = 2 * X1 , Y = 3 * X1-X2 還是 Y = 100 * X1-99 * X2效果都一樣好。盡管這個問題沒有造成我們預測的偏差,看上去它似乎并無大礙。但是,它使問題變得病態(tài)了,因為系數(shù)權重無法得到解釋。

7. 把線性模型或者邏輯回歸模型系數(shù)的絕對值解釋為特征重要性

因為很多現(xiàn)成的線性回歸方法返回每個系數(shù)的p值,很多人就認為系數(shù)的絕對值越大,對應的特征就發(fā)揮更大作用。事實并非如此,因為(一)縮放變量就會改變系數(shù)絕對值;(二)如果特征是線性相關的,其系數(shù)可以從一維特征轉(zhuǎn)移到另一維特征。此外,數(shù)據(jù)集包含的特征維度越多,特征之間就越有可能線性相關,用系數(shù)解釋特征重要性就越不靠譜。

以上就是機器學習實踐操作中的7個常見錯誤。這個列表并不完整,它只是激發(fā)讀者去思考,模型算法的假設并不一定適用于手頭的數(shù)據(jù)。在追求模型最佳性能時,重要的是選擇適合數(shù)據(jù)的模型算法,而不是你最熟悉的那個。

標簽: 大數(shù)據(jù)

版權申明:本站文章部分自網(wǎng)絡,如有侵權,請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:6個簡單的BUG追蹤技巧

下一篇:Android開發(fā)的16條小經(jīng)驗總結