中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

隨機(jī)過程在數(shù)據(jù)科學(xué)和深度學(xué)習(xí)中有哪些應(yīng)用?

2020-04-28    來源:raincent

容器云強(qiáng)勢上線!快速搭建集群,上萬Linux鏡像隨意使用

“The only simple truth is that there is nothing simple in this complex universe. Everything relates. Everything connects”

— Johnny Rich, The Human Script

介紹

機(jī)器學(xué)習(xí)的主要應(yīng)用之一是對(duì)隨機(jī)過程建模。機(jī)器學(xué)習(xí)中一些隨機(jī)過程的例子如下:

泊松過程:用于處理等待時(shí)間以及隊(duì)列。

隨機(jī)漫步和布朗運(yùn)動(dòng)過程:用于交易算法。

馬爾可夫決策過程:常用于計(jì)算生物學(xué)和強(qiáng)化學(xué)習(xí)。

高斯過程:用于回歸和優(yōu)化問題(如,超參數(shù)調(diào)優(yōu)和自動(dòng)機(jī)器學(xué)習(xí))。

自回歸和移動(dòng)平均過程:用于時(shí)間序列分析(如,ARIMA模型)。

在本文中,我將簡要地向你介紹這些隨機(jī)過程。

歷史背景

隨機(jī)過程是我們?nèi)粘I畹囊徊糠帧kS機(jī)過程之所以如此特殊,是因?yàn)殡S機(jī)過程依賴于模型的初始條件。在上個(gè)世紀(jì),許多數(shù)學(xué)家,如龐加萊,洛倫茲和圖靈都被這個(gè)話題所吸引。

如今,這種行為被稱為確定性混沌,它與真正的隨機(jī)性有著截然不同的范圍界限。

由于愛德華·諾頓·洛倫茲的貢獻(xiàn),混沌系統(tǒng)的研究在1963年取得了突破性進(jìn)展。當(dāng)時(shí),洛倫茲正在研究如何改進(jìn)天氣預(yù)報(bào)。洛倫茲在他的分析中注意到,即使是大氣中的微小擾動(dòng)也能引起氣候變化。

洛倫茲用來描述這種狀態(tài)的一個(gè)著名的短語是:

“A butterfly flapping its wings in Brazil can produce a tornado in Texas”

(在巴西,一只蝴蝶扇動(dòng)翅膀就能在德克薩斯州制造龍卷風(fēng) )— Edward Norton Lorenz

(愛德華·諾頓·洛倫茲)

這就是為什么今天的混沌理論有時(shí)被稱為“蝴蝶效應(yīng)”。

分形學(xué)

一個(gè)簡單的混沌系統(tǒng)的例子是分形(如圖所示)。分形是在不同尺度上不斷重復(fù)的一種模式。由于分形的縮放方式,分形不同于其他類型的幾何圖形。

分形是遞歸驅(qū)動(dòng)系統(tǒng),能夠捕獲混沌行為。在現(xiàn)實(shí)生活中,分形的例子有:樹、河、云、貝殼等。

 

 

圖1:MC. Escher, Smaller and Smaller [1]

在藝術(shù)領(lǐng)域有很多自相似的圖形。毫無疑問, MC. Escher是最著名的藝術(shù)家之一,他的作品靈感來自數(shù)學(xué)。事實(shí)上,在他的畫中反復(fù)出現(xiàn)各種不可能的物體,如彭羅斯三角形和莫比烏斯帶。在"Smaller and Smaller"中,他也反復(fù)使用了自相似性(圖1)。除了蜥蜴的外環(huán),畫中的內(nèi)部圖案也是自相似性的。每重復(fù)一次,它就包含一個(gè)有一半尺度的復(fù)制圖案。

確定性和隨機(jī)性過程

有兩種主要的隨機(jī)過程:確定性和隨機(jī)性。

在確定性過程中,如果我們知道一系列事件的初始條件(起始點(diǎn)),我們就可以預(yù)測該序列的下一步。相反,在隨機(jī)過程中,如果我們知道初始條件,我們不能完全確定接下來的步驟是什么。這是因?yàn)檫@個(gè)過程可能會(huì)以許多不同的方式演化。

在確定性過程中,所有后續(xù)步驟的概率都為1。另一方面,隨機(jī)性隨機(jī)過程的情況則不然。

任何完全隨機(jī)的東西對(duì)我們都沒有任何用處,除非我們能識(shí)別出其中的模式。在隨機(jī)過程中,每個(gè)單獨(dú)的事件都是隨機(jī)的,盡管可以識(shí)別出連接這些事件的隱藏模式。這樣,我們的隨機(jī)過程就被揭開了神秘的面紗,我們就能夠?qū)ξ磥淼氖录龀鰷?zhǔn)確的預(yù)測。

為了用統(tǒng)計(jì)學(xué)的術(shù)語來描述隨機(jī)過程,我們可以給出以下定義:

觀測值:一次試驗(yàn)的結(jié)果。
總體:所有可能的觀測值,可以記為一個(gè)試驗(yàn)。
樣本: 從獨(dú)立試驗(yàn)中收集的一組結(jié)果。

例如,拋一枚均勻硬幣是一個(gè)隨機(jī)過程,但由于大數(shù)定律,我們知道,如果進(jìn)行大量的試驗(yàn),我們將得到大約相同數(shù)量的正面和反面。

大數(shù)定律指出:

“隨著樣本規(guī)模的增大,樣本的均值將更接近總體的均值或期望值。因此,當(dāng)樣本容量趨于無窮時(shí),樣本均值收斂于總體均值。重要的一點(diǎn)是樣本中的觀測必須是相互獨(dú)立的。”

--Jason Brownlee

隨機(jī)過程的例子有股票市場和醫(yī)學(xué)數(shù)據(jù),如血壓和腦電圖分析。

泊松過程

泊松過程用于對(duì)一系列離散事件建模,在這些事件中,我們知道不同事件發(fā)生的平均時(shí)間,但我們不知道這些事件確切在何時(shí)發(fā)生。

如果一個(gè)隨機(jī)過程能夠滿足以下條件,則可以認(rèn)為它屬于泊松過程:

事件彼此獨(dú)立(如果一個(gè)事件發(fā)生,并不會(huì)影響另一個(gè)事件發(fā)生的概率)。
兩個(gè)事件不能同時(shí)發(fā)生。
事件的平均發(fā)生比率是恒定的。

讓我們以停電為例。電力供應(yīng)商可能會(huì)宣傳平均每10個(gè)月就會(huì)斷電一次,但我們不能準(zhǔn)確地說出下一次斷電的時(shí)間。例如,如果發(fā)生了嚴(yán)重問題,可能會(huì)連續(xù)停電2-3天(如,讓公司需要對(duì)電源供應(yīng)做一些調(diào)整),以便在接下來的兩天繼續(xù)使用。

因此,對(duì)于這種類型的隨機(jī)過程,我們可以相當(dāng)確定事件之間的平均時(shí)間,但它們是在隨機(jī)的間隔時(shí)間內(nèi)發(fā)生的。

由泊松過程,我們可以得到一個(gè)泊松分布,它可以用來推導(dǎo)出不同事件發(fā)生之間的等待時(shí)間的概率,或者一個(gè)時(shí)間段內(nèi)可能發(fā)生事件的數(shù)量。

泊松分布可以使用下面的公式來建模(圖2),其中k表示一個(gè)時(shí)期內(nèi)可能發(fā)生的事件的預(yù)期數(shù)量。

 

 

圖2:泊松分布公式[3]

一些可以使用泊松過程模擬的現(xiàn)象的例子是原子的放射性衰變和股票市場分析。

隨機(jī)漫步和布朗運(yùn)動(dòng)過程

隨機(jī)漫步是可以在隨機(jī)方向上移動(dòng)的任意離散步的序列(長度總是相同)(圖3)。隨機(jī)漫步可以發(fā)生在任何維度空間中(如:1D,2D,nD)。

 

 

圖3:高維空間[4]中的隨機(jī)漫步

現(xiàn)在我將用一維空間(數(shù)軸)向您介紹隨機(jī)漫步,這里解釋的這些概念也適用于更高維度。

我們假設(shè)我們在一個(gè)公園里,我們看到一只狗在尋找食物。它目前在數(shù)軸上的位置為0,它向左或向右移動(dòng)找到食物的概率相等(圖4)。

 

 

圖4:數(shù)軸[5]

現(xiàn)在,如果我們想知道在N步之后狗的位置是多少,我們可以再次利用大數(shù)定律。利用這個(gè)定律,我們會(huì)發(fā)現(xiàn)當(dāng)N趨于無窮時(shí),我們的狗可能會(huì)回到它的起點(diǎn)。無論如何,此時(shí)這種情況并沒有多大用處。

因此,我們可以嘗試使用均方根(RMS)作為距離度量(首先對(duì)所有值求平方,然后計(jì)算它們的平均值,最后對(duì)結(jié)果求平方根)。這樣,所有的負(fù)數(shù)都變成正數(shù),平均值不再等于零。

在這個(gè)例子中,使用RMS我們會(huì)發(fā)現(xiàn),如果我們的狗走了100步,它平均會(huì)從原點(diǎn)移動(dòng)10步(√100 = 10)。

如前面所述,隨機(jī)漫步用于描述離散時(shí)間過程。相反,布朗運(yùn)動(dòng)可以用來描述連續(xù)時(shí)間的隨機(jī)漫步。

隱馬爾科夫模型

隱馬爾可夫模型都是關(guān)于認(rèn)識(shí)序列信號(hào)的。它們在數(shù)據(jù)科學(xué)領(lǐng)域有大量應(yīng)用,例如:

計(jì)算生物學(xué)(https://towardsdatascience.com/computational-biology-fca101e20412)。
寫作/語音識(shí)別。
自然語言處理(NLP)。
強(qiáng)化學(xué)習(xí)

HMMs是一種概率圖形模型,用于從一組可觀察狀態(tài)預(yù)測隱藏(未知)狀態(tài)序列。

這類模型遵循馬爾可夫過程假設(shè):

“鑒于我們知道現(xiàn)在,所以未來是獨(dú)立于過去的"

因此,在處理隱馬爾可夫模型時(shí),我們只需要知道我們的當(dāng)前狀態(tài),以便預(yù)測下一個(gè)狀態(tài)(我們不需要任何關(guān)于前一個(gè)狀態(tài)的信息)。

要使用HMMs進(jìn)行預(yù)測,我們只需要計(jì)算隱藏狀態(tài)的聯(lián)合概率,然后選擇產(chǎn)生最高概率(最有可能發(fā)生)的序列。

為了計(jì)算聯(lián)合概率,我們需要以下三種信息:

初始狀態(tài):任意一個(gè)隱藏狀態(tài)下開始序列的初始概率。
轉(zhuǎn)移概率:從一個(gè)隱藏狀態(tài)轉(zhuǎn)移到另一個(gè)隱藏狀態(tài)的概率。
發(fā)射概率:從隱藏狀態(tài)移動(dòng)到觀測狀態(tài)的概率

舉個(gè)簡單的例子,假設(shè)我們正試圖根據(jù)一群人的穿著來預(yù)測明天的天氣是什么(圖5)。

在這種例子中,不同類型的天氣將成為我們的隱藏狀態(tài)。晴天,刮風(fēng)和下雨)和穿的衣服類型將是我們可以觀察到的狀態(tài)(如,t恤,長褲和夾克)。初始狀態(tài)是這個(gè)序列的起點(diǎn)。轉(zhuǎn)換概率,表示的是從一種天氣轉(zhuǎn)換到另一種天氣的可能性。最后,發(fā)射概率是根據(jù)前一天的天氣,某人穿某件衣服的概率。

 

 

圖5:隱馬爾可夫模型示例[6]

使用隱馬爾可夫模型的一個(gè)主要問題是,隨著狀態(tài)數(shù)的增加,概率和可能狀態(tài)的數(shù)量呈指數(shù)增長。為了解決這個(gè)問題,可以使用維特比算法。

如果您對(duì)使用HMMs和生物學(xué)中的Viterbi算法的實(shí)際代碼示例感興趣,可以在我的Github代碼庫中找到它。

從機(jī)器學(xué)習(xí)的角度來看,觀察值組成了我們的訓(xùn)練數(shù)據(jù),隱藏狀態(tài)的數(shù)量組成了我們要調(diào)優(yōu)的超參數(shù)。

機(jī)器學(xué)習(xí)中HMMs最常見的應(yīng)用之一是agent-based情景,如強(qiáng)化學(xué)習(xí)(圖6)。

 

 

圖6:強(qiáng)化學(xué)習(xí)[7]中的HMMs

高斯過程

高斯過程是一類完全依賴自協(xié)方差函數(shù)的平穩(wěn)零均值隨機(jī)過程。這類模型可用于回歸和分類任務(wù)。

高斯過程最大的優(yōu)點(diǎn)之一是,它們可以提供關(guān)于不確定性的估計(jì),例如,給我們一個(gè)算法確定某個(gè)項(xiàng)是否屬于某個(gè)類的確定性估計(jì)。

為了處理嵌入一定程度上的不確定性的情況,通常使用概率分布。

一個(gè)離散概率分布的簡單例子是擲骰子。

想象一下,現(xiàn)在你的一個(gè)朋友挑戰(zhàn)你擲骰子,你擲了50個(gè)trows。在擲骰子公平的情況下,我們期望6個(gè)面中每個(gè)面出現(xiàn)的概率相同(各為1/6)。如圖7所示。

 

 

圖7:擲骰子公平的概率分布

無論如何,你玩得越多,你就越可以看到到骰子總是落在相同的面上。此時(shí),您開始考慮骰子可能是不公平的,因此您改變了關(guān)于概率分布的最初信念(圖8)。

 

 

圖8:不公平骰子的概率分布

這個(gè)過程被稱為貝葉斯推理。

貝葉斯推理是我們在獲得新證據(jù)的基礎(chǔ)上更新自己對(duì)世界的認(rèn)知的過程。

我們從一個(gè)先前的信念開始,一旦我們用全新的信息更新它,我們就構(gòu)建了一個(gè)后驗(yàn)信念。這種推理同樣適用于離散分布和連續(xù)分布。

因此,高斯過程允許我們描述概率分布,一旦我們收集到新的訓(xùn)練數(shù)據(jù),我們就可以使用貝葉斯法則(圖9)更新分布。

 

 

圖9:貝葉斯法則[8]

自回歸移動(dòng)平均過程

自回歸移動(dòng)平均(ARMA)過程是一類非常重要的分析時(shí)間序列的隨機(jī)過程。ARMA模型的特點(diǎn)是它們的自協(xié)方差函數(shù)只依賴于有限數(shù)量的未知參數(shù)(對(duì)于高斯過程是不可能的)。

縮略詞ARMA可以分為兩個(gè)主要部分:

自回歸=模型利用了預(yù)先定義的滯后觀測值與當(dāng)前滯后觀測值之間的聯(lián)系。
移動(dòng)平均=模型利用了殘差與觀測值之間的關(guān)系。

ARMA模型利用兩個(gè)主要參數(shù)(p, q),分別為:

p = 滯后觀測次數(shù)。
q = 移動(dòng)平均窗口的大小。

ARMA過程假設(shè)一個(gè)時(shí)間序列在一個(gè)常數(shù)均值附近均勻波動(dòng)。如果我們試圖分析一個(gè)不遵循這種模式的時(shí)間序列,那么這個(gè)序列將需要被差分,直到分割后的序列具有平穩(wěn)性。

這可以通過使用一個(gè)ARIMA模型來實(shí)現(xiàn),如果你有興趣了解更多,我寫了一篇關(guān)于使用ARIMA進(jìn)行股票市場分析的文章。

“The only simple truth is that there is nothing simple in this complex universe. Everything relates. Everything connects”

— Johnny Rich, The Human Script

介紹

機(jī)器學(xué)習(xí)的主要應(yīng)用之一是對(duì)隨機(jī)過程建模。機(jī)器學(xué)習(xí)中一些隨機(jī)過程的例子如下:

泊松過程:用于處理等待時(shí)間以及隊(duì)列。

隨機(jī)漫步和布朗運(yùn)動(dòng)過程:用于交易算法。

馬爾可夫決策過程:常用于計(jì)算生物學(xué)和強(qiáng)化學(xué)習(xí)。

高斯過程:用于回歸和優(yōu)化問題(如,超參數(shù)調(diào)優(yōu)和自動(dòng)機(jī)器學(xué)習(xí))。

自回歸和移動(dòng)平均過程:用于時(shí)間序列分析(如,ARIMA模型)。

在本文中,我將簡要地向你介紹這些隨機(jī)過程。

歷史背景

隨機(jī)過程是我們?nèi)粘I畹囊徊糠帧kS機(jī)過程之所以如此特殊,是因?yàn)殡S機(jī)過程依賴于模型的初始條件。在上個(gè)世紀(jì),許多數(shù)學(xué)家,如龐加萊,洛倫茲和圖靈都被這個(gè)話題所吸引。

如今,這種行為被稱為確定性混沌,它與真正的隨機(jī)性有著截然不同的范圍界限。

由于愛德華·諾頓·洛倫茲的貢獻(xiàn),混沌系統(tǒng)的研究在1963年取得了突破性進(jìn)展。當(dāng)時(shí),洛倫茲正在研究如何改進(jìn)天氣預(yù)報(bào)。洛倫茲在他的分析中注意到,即使是大氣中的微小擾動(dòng)也能引起氣候變化。

洛倫茲用來描述這種狀態(tài)的一個(gè)著名的短語是:

“A butterfly flapping its wings in Brazil can produce a tornado in Texas”

(在巴西,一只蝴蝶扇動(dòng)翅膀就能在德克薩斯州制造龍卷風(fēng) )— Edward Norton Lorenz

(愛德華·諾頓·洛倫茲)

這就是為什么今天的混沌理論有時(shí)被稱為“蝴蝶效應(yīng)”。

分形學(xué)

一個(gè)簡單的混沌系統(tǒng)的例子是分形(如圖所示)。分形是在不同尺度上不斷重復(fù)的一種模式。由于分形的縮放方式,分形不同于其他類型的幾何圖形。

分形是遞歸驅(qū)動(dòng)系統(tǒng),能夠捕獲混沌行為。在現(xiàn)實(shí)生活中,分形的例子有:樹、河、云、貝殼等。

 

 

圖1:MC. Escher, Smaller and Smaller [1]

在藝術(shù)領(lǐng)域有很多自相似的圖形。毫無疑問, MC. Escher是最著名的藝術(shù)家之一,他的作品靈感來自數(shù)學(xué)。事實(shí)上,在他的畫中反復(fù)出現(xiàn)各種不可能的物體,如彭羅斯三角形和莫比烏斯帶。在"Smaller and Smaller"中,他也反復(fù)使用了自相似性(圖1)。除了蜥蜴的外環(huán),畫中的內(nèi)部圖案也是自相似性的。每重復(fù)一次,它就包含一個(gè)有一半尺度的復(fù)制圖案。

確定性和隨機(jī)性過程

有兩種主要的隨機(jī)過程:確定性和隨機(jī)性。

在確定性過程中,如果我們知道一系列事件的初始條件(起始點(diǎn)),我們就可以預(yù)測該序列的下一步。相反,在隨機(jī)過程中,如果我們知道初始條件,我們不能完全確定接下來的步驟是什么。這是因?yàn)檫@個(gè)過程可能會(huì)以許多不同的方式演化。

在確定性過程中,所有后續(xù)步驟的概率都為1。另一方面,隨機(jī)性隨機(jī)過程的情況則不然。

任何完全隨機(jī)的東西對(duì)我們都沒有任何用處,除非我們能識(shí)別出其中的模式。在隨機(jī)過程中,每個(gè)單獨(dú)的事件都是隨機(jī)的,盡管可以識(shí)別出連接這些事件的隱藏模式。這樣,我們的隨機(jī)過程就被揭開了神秘的面紗,我們就能夠?qū)ξ磥淼氖录龀鰷?zhǔn)確的預(yù)測。

為了用統(tǒng)計(jì)學(xué)的術(shù)語來描述隨機(jī)過程,我們可以給出以下定義:

觀測值:一次試驗(yàn)的結(jié)果。
總體:所有可能的觀測值,可以記為一個(gè)試驗(yàn)。
樣本: 從獨(dú)立試驗(yàn)中收集的一組結(jié)果。

例如,拋一枚均勻硬幣是一個(gè)隨機(jī)過程,但由于大數(shù)定律,我們知道,如果進(jìn)行大量的試驗(yàn),我們將得到大約相同數(shù)量的正面和反面。

大數(shù)定律指出:

“隨著樣本規(guī)模的增大,樣本的均值將更接近總體的均值或期望值。因此,當(dāng)樣本容量趨于無窮時(shí),樣本均值收斂于總體均值。重要的一點(diǎn)是樣本中的觀測必須是相互獨(dú)立的。”

--Jason Brownlee

隨機(jī)過程的例子有股票市場和醫(yī)學(xué)數(shù)據(jù),如血壓和腦電圖分析。

泊松過程

泊松過程用于對(duì)一系列離散事件建模,在這些事件中,我們知道不同事件發(fā)生的平均時(shí)間,但我們不知道這些事件確切在何時(shí)發(fā)生。

如果一個(gè)隨機(jī)過程能夠滿足以下條件,則可以認(rèn)為它屬于泊松過程:

事件彼此獨(dú)立(如果一個(gè)事件發(fā)生,并不會(huì)影響另一個(gè)事件發(fā)生的概率)。
兩個(gè)事件不能同時(shí)發(fā)生。
事件的平均發(fā)生比率是恒定的。

讓我們以停電為例。電力供應(yīng)商可能會(huì)宣傳平均每10個(gè)月就會(huì)斷電一次,但我們不能準(zhǔn)確地說出下一次斷電的時(shí)間。例如,如果發(fā)生了嚴(yán)重問題,可能會(huì)連續(xù)停電2-3天(如,讓公司需要對(duì)電源供應(yīng)做一些調(diào)整),以便在接下來的兩天繼續(xù)使用。

因此,對(duì)于這種類型的隨機(jī)過程,我們可以相當(dāng)確定事件之間的平均時(shí)間,但它們是在隨機(jī)的間隔時(shí)間內(nèi)發(fā)生的。

由泊松過程,我們可以得到一個(gè)泊松分布,它可以用來推導(dǎo)出不同事件發(fā)生之間的等待時(shí)間的概率,或者一個(gè)時(shí)間段內(nèi)可能發(fā)生事件的數(shù)量。

泊松分布可以使用下面的公式來建模(圖2),其中k表示一個(gè)時(shí)期內(nèi)可能發(fā)生的事件的預(yù)期數(shù)量。

 

 

圖2:泊松分布公式[3]

一些可以使用泊松過程模擬的現(xiàn)象的例子是原子的放射性衰變和股票市場分析。

隨機(jī)漫步和布朗運(yùn)動(dòng)過程

隨機(jī)漫步是可以在隨機(jī)方向上移動(dòng)的任意離散步的序列(長度總是相同)(圖3)。隨機(jī)漫步可以發(fā)生在任何維度空間中(如:1D,2D,nD)。

 

 

圖3:高維空間[4]中的隨機(jī)漫步

現(xiàn)在我將用一維空間(數(shù)軸)向您介紹隨機(jī)漫步,這里解釋的這些概念也適用于更高維度。

我們假設(shè)我們在一個(gè)公園里,我們看到一只狗在尋找食物。它目前在數(shù)軸上的位置為0,它向左或向右移動(dòng)找到食物的概率相等(圖4)。

 

 

圖4:數(shù)軸[5]

現(xiàn)在,如果我們想知道在N步之后狗的位置是多少,我們可以再次利用大數(shù)定律。利用這個(gè)定律,我們會(huì)發(fā)現(xiàn)當(dāng)N趨于無窮時(shí),我們的狗可能會(huì)回到它的起點(diǎn)。無論如何,此時(shí)這種情況并沒有多大用處。

因此,我們可以嘗試使用均方根(RMS)作為距離度量(首先對(duì)所有值求平方,然后計(jì)算它們的平均值,最后對(duì)結(jié)果求平方根)。這樣,所有的負(fù)數(shù)都變成正數(shù),平均值不再等于零。

在這個(gè)例子中,使用RMS我們會(huì)發(fā)現(xiàn),如果我們的狗走了100步,它平均會(huì)從原點(diǎn)移動(dòng)10步(√100 = 10)。

如前面所述,隨機(jī)漫步用于描述離散時(shí)間過程。相反,布朗運(yùn)動(dòng)可以用來描述連續(xù)時(shí)間的隨機(jī)漫步。

隱馬爾科夫模型

隱馬爾可夫模型都是關(guān)于認(rèn)識(shí)序列信號(hào)的。它們在數(shù)據(jù)科學(xué)領(lǐng)域有大量應(yīng)用,例如:

計(jì)算生物學(xué)(https://towardsdatascience.com/computational-biology-fca101e20412)。
寫作/語音識(shí)別。
自然語言處理(NLP)。
強(qiáng)化學(xué)習(xí)

HMMs是一種概率圖形模型,用于從一組可觀察狀態(tài)預(yù)測隱藏(未知)狀態(tài)序列。

這類模型遵循馬爾可夫過程假設(shè):

“鑒于我們知道現(xiàn)在,所以未來是獨(dú)立于過去的"

因此,在處理隱馬爾可夫模型時(shí),我們只需要知道我們的當(dāng)前狀態(tài),以便預(yù)測下一個(gè)狀態(tài)(我們不需要任何關(guān)于前一個(gè)狀態(tài)的信息)。

要使用HMMs進(jìn)行預(yù)測,我們只需要計(jì)算隱藏狀態(tài)的聯(lián)合概率,然后選擇產(chǎn)生最高概率(最有可能發(fā)生)的序列。

為了計(jì)算聯(lián)合概率,我們需要以下三種信息:

初始狀態(tài):任意一個(gè)隱藏狀態(tài)下開始序列的初始概率。
轉(zhuǎn)移概率:從一個(gè)隱藏狀態(tài)轉(zhuǎn)移到另一個(gè)隱藏狀態(tài)的概率。
發(fā)射概率:從隱藏狀態(tài)移動(dòng)到觀測狀態(tài)的概率

舉個(gè)簡單的例子,假設(shè)我們正試圖根據(jù)一群人的穿著來預(yù)測明天的天氣是什么(圖5)。

在這種例子中,不同類型的天氣將成為我們的隱藏狀態(tài)。晴天,刮風(fēng)和下雨)和穿的衣服類型將是我們可以觀察到的狀態(tài)(如,t恤,長褲和夾克)。初始狀態(tài)是這個(gè)序列的起點(diǎn)。轉(zhuǎn)換概率,表示的是從一種天氣轉(zhuǎn)換到另一種天氣的可能性。最后,發(fā)射概率是根據(jù)前一天的天氣,某人穿某件衣服的概率。

 

 

圖5:隱馬爾可夫模型示例[6]

使用隱馬爾可夫模型的一個(gè)主要問題是,隨著狀態(tài)數(shù)的增加,概率和可能狀態(tài)的數(shù)量呈指數(shù)增長。為了解決這個(gè)問題,可以使用維特比算法。

如果您對(duì)使用HMMs和生物學(xué)中的Viterbi算法的實(shí)際代碼示例感興趣,可以在我的Github代碼庫中找到它。

從機(jī)器學(xué)習(xí)的角度來看,觀察值組成了我們的訓(xùn)練數(shù)據(jù),隱藏狀態(tài)的數(shù)量組成了我們要調(diào)優(yōu)的超參數(shù)。

機(jī)器學(xué)習(xí)中HMMs最常見的應(yīng)用之一是agent-based情景,如強(qiáng)化學(xué)習(xí)(圖6)。

 

 

圖6:強(qiáng)化學(xué)習(xí)[7]中的HMMs

高斯過程

高斯過程是一類完全依賴自協(xié)方差函數(shù)的平穩(wěn)零均值隨機(jī)過程。這類模型可用于回歸和分類任務(wù)。

高斯過程最大的優(yōu)點(diǎn)之一是,它們可以提供關(guān)于不確定性的估計(jì),例如,給我們一個(gè)算法確定某個(gè)項(xiàng)是否屬于某個(gè)類的確定性估計(jì)。

為了處理嵌入一定程度上的不確定性的情況,通常使用概率分布。

一個(gè)離散概率分布的簡單例子是擲骰子。

想象一下,現(xiàn)在你的一個(gè)朋友挑戰(zhàn)你擲骰子,你擲了50個(gè)trows。在擲骰子公平的情況下,我們期望6個(gè)面中每個(gè)面出現(xiàn)的概率相同(各為1/6)。如圖7所示。

 

 

圖7:擲骰子公平的概率分布

無論如何,你玩得越多,你就越可以看到到骰子總是落在相同的面上。此時(shí),您開始考慮骰子可能是不公平的,因此您改變了關(guān)于概率分布的最初信念(圖8)。

 

 

圖8:不公平骰子的概率分布

這個(gè)過程被稱為貝葉斯推理。

貝葉斯推理是我們在獲得新證據(jù)的基礎(chǔ)上更新自己對(duì)世界的認(rèn)知的過程。

我們從一個(gè)先前的信念開始,一旦我們用全新的信息更新它,我們就構(gòu)建了一個(gè)后驗(yàn)信念。這種推理同樣適用于離散分布和連續(xù)分布。

因此,高斯過程允許我們描述概率分布,一旦我們收集到新的訓(xùn)練數(shù)據(jù),我們就可以使用貝葉斯法則(圖9)更新分布。

 

 

圖9:貝葉斯法則[8]

自回歸移動(dòng)平均過程

自回歸移動(dòng)平均(ARMA)過程是一類非常重要的分析時(shí)間序列的隨機(jī)過程。ARMA模型的特點(diǎn)是它們的自協(xié)方差函數(shù)只依賴于有限數(shù)量的未知參數(shù)(對(duì)于高斯過程是不可能的)。

縮略詞ARMA可以分為兩個(gè)主要部分:

自回歸=模型利用了預(yù)先定義的滯后觀測值與當(dāng)前滯后觀測值之間的聯(lián)系。
移動(dòng)平均=模型利用了殘差與觀測值之間的關(guān)系。

ARMA模型利用兩個(gè)主要參數(shù)(p, q),分別為:

p = 滯后觀測次數(shù)。
q = 移動(dòng)平均窗口的大小。

ARMA過程假設(shè)一個(gè)時(shí)間序列在一個(gè)常數(shù)均值附近均勻波動(dòng)。如果我們試圖分析一個(gè)不遵循這種模式的時(shí)間序列,那么這個(gè)序列將需要被差分,直到分割后的序列具有平穩(wěn)性。

這可以通過使用一個(gè)ARIMA模型來實(shí)現(xiàn),如果你有興趣了解更多,我寫了一篇關(guān)于使用ARIMA進(jìn)行股票市場分析的文章。

謝謝閱讀!

參考文獻(xiàn)

[1] M C Escher, “Smaller and Smaller” — 1956

[2] 機(jī)器學(xué)習(xí)中大數(shù)定律的簡要介紹。Machine Learning Mastery, Jason Brownlee.

[3] 正態(tài)分布,二項(xiàng)分布,泊松分布 , Make Me Analyst.

[4] 通用維基百科. Accessed at:

[5] 數(shù)軸是什么?Mathematics Monste.

[6] 機(jī)器學(xué)習(xí)算法: SD (σ)- 貝葉斯算法. Sagi Shaier, Medium.

[7] DeepMind的人工智能正在自學(xué)跑酷,結(jié)果非常令人驚訝。The Verge, James Vincent.

[8] 為數(shù)據(jù)科學(xué)專業(yè)人員寫的強(qiáng)大的貝葉斯定理介紹。KHYATI MAHENDRU, Analytics Vidhya. Accessed

https://towardsdatascience.com/stochastic-processes-analysis-f0a116999e4

今日資源推薦:AI入門、大數(shù)據(jù)、機(jī)器學(xué)習(xí)免費(fèi)教程

35本世界頂級(jí)原本教程限時(shí)開放,這類書單由知名數(shù)據(jù)科學(xué)網(wǎng)站 KDnuggets 的副主編,同時(shí)也是資深的數(shù)據(jù)科學(xué)家、深度學(xué)習(xí)技術(shù)愛好者的Matthew Mayo推薦,他在機(jī)器學(xué)習(xí)和數(shù)據(jù)科學(xué)領(lǐng)域具有豐富的科研和從業(yè)經(jīng)驗(yàn)。

標(biāo)簽: 數(shù)據(jù) 

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請(qǐng)與原作者聯(lián)系。

上一篇:是什么讓數(shù)據(jù)科學(xué)家從優(yōu)秀變得偉大?

下一篇:Google 科學(xué)家最新整理,給新手推薦的十篇最佳數(shù)據(jù)科學(xué)文章