中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

2019五大頂尖數(shù)據(jù)科學(xué)GitHub項(xiàng)目和Reddit熱帖

2019-02-28    來(lái)源:raincent

容器云強(qiáng)勢(shì)上線!快速搭建集群,上萬(wàn)Linux鏡像隨意使用

 

沒(méi)有什么比GitHub和Reddit更適合數(shù)據(jù)科學(xué)了。

GitHub是托管代碼的終極一站式平臺(tái),它擅長(zhǎng)于簡(jiǎn)化團(tuán)隊(duì)成員之間的協(xié)作過(guò)程。 多數(shù)領(lǐng)先的數(shù)據(jù)科學(xué)家和組織使用GitHub來(lái)開(kāi)源他們的庫(kù)和框架。因此,我們不僅能夠及時(shí)了解領(lǐng)域的最新發(fā)展,還可以在自己的機(jī)器上復(fù)制模型。

Reddit的討論與該頻譜的目的相同,領(lǐng)先的研究人員和才華橫溢的人才聚集在一起,討論和推斷機(jī)器學(xué)習(xí)和數(shù)據(jù)科學(xué)的最新主題和突破。

從這兩個(gè)平臺(tái)中,我們可以學(xué)習(xí)很多東西。本文介紹了2019年以來(lái)最新的開(kāi)源GitHub庫(kù)和Reddit討論。

 

 

GitHub項(xiàng)目

 

 

1. Flair (最先進(jìn)的NLP庫(kù))

(https://github.com/zalandoresearch/flair)

2018年是自然語(yǔ)言處理(NLP)的分水嶺。像ELMo和谷歌的BERT這樣的庫(kù)就是突破性的版本。正如Sebastian Ruder所說(shuō),“NLP的ImageNet時(shí)刻已經(jīng)到來(lái)”!

Flair是另一個(gè)優(yōu)秀的NLP庫(kù),易于理解和實(shí)現(xiàn)。它最好的部分是什么?它非常先進(jìn)。

Flair由Zalando Research基于PyTorch開(kāi)發(fā)并開(kāi)源。該庫(kù)在廣泛的NLP任務(wù)上優(yōu)于以前的方法:

 

 

這里,F(xiàn)1是準(zhǔn)確度評(píng)估指標(biāo)。

2. face.evoLVe – 高性能人臉識(shí)別庫(kù)

(https://github.com/ZhaoJ9014/face.evoLVe.PyTorch)

 

 

現(xiàn)在的數(shù)據(jù)科學(xué)領(lǐng)域,應(yīng)用于計(jì)算機(jī)視覺(jué)的面部識(shí)別算法無(wú)處不在。

face.evoLVe是一個(gè)基于PyTorch的“高性能人臉識(shí)別庫(kù)”。它為面部相關(guān)分析和應(yīng)用程序提供全面的功能,包括:

· 面部對(duì)齊(檢測(cè)、地標(biāo)定位、仿射變換)

· 數(shù)據(jù)預(yù)處理(例如,擴(kuò)充、數(shù)據(jù)平衡、規(guī)范化)

· 各種骨干(例如,ResNet、DenseNet、LightCNN、MobileNet等)

· 各種損失(例如,Softmax、Center、SphereFace、AmSoftmax、Triplet等)

· 提高性能的一系列技巧(例如,培訓(xùn)改進(jìn)、模型調(diào)整、知識(shí)蒸餾等)。

該庫(kù)是實(shí)際使用和部署高性能深層識(shí)別的必備工具,尤其適用于研究人員和工程師。

3. YOLOv3

(https://github.com/wizyoung/YOLOv3_TensorFlow)

 

 

YOLO是用于執(zhí)行對(duì)象檢測(cè)任務(wù)的極其快速且準(zhǔn)確的框架。它是在三年前推出的,并且從那以后經(jīng)歷了幾次迭代,每次都比上一次更加精良。

此存儲(chǔ)庫(kù)是在TensorFlow中實(shí)現(xiàn)的YOLOv3的完整管道,可以在數(shù)據(jù)集上使用,以訓(xùn)練和評(píng)估自己的對(duì)象檢測(cè)模型。以下是此存儲(chǔ)庫(kù)的主要亮點(diǎn):

· 高效的tf.data管道

· 重量轉(zhuǎn)換器

· 極快的GPU非極大值抑制(Non Maximum Suppression)

· 完整的培訓(xùn)渠道

· 通過(guò)K-means算法選擇先前的錨箱

4. FaceBoxes: 高準(zhǔn)確度的 CPU實(shí)時(shí)人臉檢測(cè)器

(https://github.com/zisianw/FaceBoxes.PyTorch)

 

 

計(jì)算機(jī)視覺(jué)中最大的挑戰(zhàn)之一是管理計(jì)算資源。并不是每個(gè)人都有多個(gè)GPU。 這是一個(gè)很難克服的障礙。

加強(qiáng)FaceBoxes。這是一種新穎的人臉檢測(cè)方法,使用CPU在速度和準(zhǔn)確度方面都表現(xiàn)出了令人印象深刻的性能。

該存儲(chǔ)庫(kù)在FaceBoxes的PyTorch中運(yùn)行。它包含安裝、訓(xùn)練和評(píng)估人臉檢測(cè)模型的代碼。不要再抱怨缺乏計(jì)算能力——今天就試試FaceBoxes吧!

5. Transformer-XL from Google AI

(https://github.com/kimiyoung/transformer-xl)

 

 

這是另一個(gè)改變游戲規(guī)則的NLP框架?吹狡溆蠫oogle AI團(tuán)隊(duì)的支持也不足為奇(他們也是那些提出BERT的人)。

長(zhǎng)距離依賴(lài)性一直是NLP方面的棘手問(wèn)題。即使去年取得了重大進(jìn)展,但這個(gè)概念還沒(méi)有得到很好的解決。使用了RNN和Vanilla變壓器,但它們還不夠好。Google AI的Transformer-XL已經(jīng)填補(bǔ)了這個(gè)空白。以下是關(guān)于這個(gè)庫(kù)的一些要點(diǎn):

· Transformer-XL能夠?qū)W習(xí)長(zhǎng)距離依賴(lài)性,比RNN長(zhǎng)約80%,比Vanilla Transformer長(zhǎng)450%。

· 即使在計(jì)算方面,Transformer-XL也比Vanilla Transformer快1800倍!

· 由于長(zhǎng)期依賴(lài)性建模,Transformer-XL在長(zhǎng)序列中具有更好的混淆性能(在預(yù)測(cè)樣本時(shí)更準(zhǔn)確)。

此存儲(chǔ)庫(kù)包含TensorFlow和PyTorch中Transformer-XL的代碼?纯茨闶欠窨梢云ヅ(甚至擊敗)NLP中最先進(jìn)的結(jié)果!

 

 

Reddit 熱帖

 

 

1. 數(shù)據(jù)科學(xué)家是新型業(yè)務(wù)分析師

(https://www.reddit.com/r/datascience/comments/aj6ohk/data_scientist_is_the_new_business_analyst/)

不要被標(biāo)題中的熱門(mén)話題所迷惑。這是對(duì)數(shù)據(jù)科學(xué)當(dāng)前狀態(tài)及其在世界各地的教學(xué)方式的認(rèn)真討論。

在不同的數(shù)據(jù)科學(xué)角色上確定特定標(biāo)簽總是很困難的。功能和任務(wù)各不相同——那么誰(shuí)應(yīng)該準(zhǔn)確地學(xué)習(xí)什么?該主題探討教育機(jī)構(gòu)如何僅涵蓋基本概念并聲稱(chēng)教授數(shù)據(jù)科學(xué)。

對(duì)于所有處于初級(jí)學(xué)習(xí)階段的人——請(qǐng)務(wù)必瀏覽此討論。你將了解到很多關(guān)于招聘人員如何看待持有認(rèn)證或?qū)W位的潛在候選人聲稱(chēng)他們是數(shù)據(jù)科學(xué)家這一事件。

當(dāng)然,你將了解商業(yè)分析師的工作內(nèi)容,以及與數(shù)據(jù)科學(xué)家的不同之處。

2. 數(shù)據(jù)科學(xué)中有什么東西讓你大吃一驚

(https://www.reddit.com/r/datascience/comments/aczhjc/what_is_something_in_ds_that_has_blown_your_mind/)

數(shù)據(jù)科學(xué)讓你感到驚嘆的的一件事是什么?

在這個(gè)討論主題中有很多不可思議的理論和事實(shí)會(huì)讓你參與其中。以下是來(lái)自該帖子的幾個(gè)很酷的答案:

“世界上有多少地方可以用眾所周知的分布來(lái)建模。很多事物都是正太分布的這一事實(shí)讓我覺(jué)得我們正處于模擬中。“

“第一件引起我注意并推動(dòng)我從事數(shù)據(jù)科學(xué)事業(yè)的事情是美聯(lián)航每年通過(guò)改變用于制作飛行雜志的紙張類(lèi)型來(lái)節(jié)省170,000的燃料。”

3. 頂尖數(shù)據(jù)科學(xué)家在職業(yè)生涯早期致力于解決的問(wèn)題

(https://www.reddit.com/r/MachineLearning/comments/afl3t1/d_machine_learning_people_what_are_some_things/)

大多數(shù)數(shù)據(jù)科學(xué)家很確定地說(shuō),他們?cè)谧畛醯娜兆永锖茈y理解某些概念。甚至像估算缺失值那樣簡(jiǎn)單的事情也會(huì)成為挫折中的艱苦工作。

這個(gè)主題是所有數(shù)據(jù)科學(xué)愛(ài)好者的金礦。它由經(jīng)驗(yàn)豐富的數(shù)據(jù)科學(xué)家組成,他們分享了自己如何設(shè)法學(xué)習(xí)或了解最初難以掌握的概念。其中一些甚至可能對(duì)你來(lái)說(shuō)很熟悉:

· “最難的部分是學(xué)習(xí)不同類(lèi)型的輸入形狀(DNN,RNN,CNN)如何工作。 我想我花了大約20個(gè)小時(shí)來(lái)確定RNN的輸入形狀。“

· “每次都是,現(xiàn)在仍然充滿(mǎn)挑戰(zhàn),就是在系統(tǒng)上設(shè)置開(kāi)發(fā)環(huán)境。安裝CUDA,Tensorflow,PyCharm。 那些日子真是令人恐懼和絕望。“

· “配置TensorFlow以使用我的GPU能夠運(yùn)作,這需要數(shù)小時(shí)的谷歌搜索和反復(fù)試驗(yàn)。”

4. 為什么深度學(xué)習(xí)網(wǎng)絡(luò)可以得到很好的推廣

(https://www.reddit.com/r/MachineLearning/comments/abj1mc/d_notes_on_why_deep_neural_networks_are_able_to/)

神經(jīng)網(wǎng)絡(luò)長(zhǎng)期以來(lái)一直有“黑匣子”的聲譽(yù)(它不再是真的了)。當(dāng)概念擴(kuò)展到深度神經(jīng)網(wǎng)絡(luò)(DNN)時(shí),事情變得更加混亂。這些DNN是許多最新技術(shù)成果的核心,因此了解它們的工作原理至關(guān)重要。

這個(gè)主題中討論的一個(gè)關(guān)鍵問(wèn)題是神經(jīng)網(wǎng)絡(luò)如何深入推廣。如果你有同樣的想法,但對(duì)此沒(méi)有答案——準(zhǔn)備好大吃一驚吧!

該主題包括深度學(xué)習(xí)專(zhuān)家提出的觀點(diǎn)。包含了大量的鏈接和資源,以深入探討該主題。但請(qǐng)注意,對(duì)神經(jīng)網(wǎng)絡(luò)的基本了解將有助于你更多地參與討論。

5. AMA 和 DeepMind的 AlphaStar 團(tuán)隊(duì)

(https://www.reddit.com/r/MachineLearning/comments/ajgzoc/we_are_oriol_vinyals_and_david_silver_from/)

當(dāng)AlphaGo創(chuàng)作擊敗圍棋冠軍李世石時(shí),谷歌的DeepMind震驚世界。他們又一次席卷而來(lái)!

其最新的算法AlphaStar在流行游戲的星際爭(zhēng)霸2中受過(guò)訓(xùn)練。AlphaStar強(qiáng)調(diào)將兩位星際爭(zhēng)霸球員放在一邊,以10-1的優(yōu)勢(shì)贏得勝利。

這個(gè)Reddit討論主題是由兩個(gè)DeepMind AlphaStar的創(chuàng)建者主持的AMA(Ask Me Anything)。他們與Reddit社區(qū)討論了各種各樣的主題,解釋了算法如何工作,使用了多少訓(xùn)練數(shù)據(jù),硬件設(shè)置是什么樣的,等等。

這個(gè)討論中有兩個(gè)有趣的問(wèn)題:

“為了達(dá)到目前的水平,需要玩多少場(chǎng)比賽? 或者換句話說(shuō):以你為例,有多少游戲是需要長(zhǎng)達(dá)200年的學(xué)習(xí)?“

“嘗試了哪些其他方法?我知道人們對(duì)是否會(huì)涉及任何樹(shù)搜索、深層環(huán)境模型或分層RL技術(shù)感到非常好奇,它們似乎都不可行;如果嘗試過(guò),他們中的任何一個(gè)都取得了可觀的進(jìn)展嗎?”

標(biāo)簽: Google 代碼 谷歌 搜索 推廣 網(wǎng)絡(luò)

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請(qǐng)與原作者聯(lián)系。

上一篇:2019年頂級(jí)技術(shù)技能:區(qū)塊鏈編程語(yǔ)言Solidity位居榜首!

下一篇:如何順利轉(zhuǎn)向云端數(shù)據(jù)分析