中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

過去一年最有用的6個機器學(xué)習(xí)項目,你用過幾個?

2019-01-10    來源:raincent

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

在過去的一年中,機器學(xué)習(xí)許多新的高影響力應(yīng)用被發(fā)現(xiàn)并被揭示,特別是在醫(yī)療保健、金融、語音識別、增強現(xiàn)實和更復(fù)雜的3D和視頻應(yīng)用中。

我們已經(jīng)看到了更多的應(yīng)用驅(qū)動研究,而不是理論研究。雖然這可能有其缺點,但它暫時產(chǎn)生了一些巨大的積極影響,即可以迅速轉(zhuǎn)化為業(yè)務(wù)和客戶價值的新研發(fā)。這一趨勢在ML開源工作的大部分內(nèi)容中得到了強烈反映。

讓我們來看看過去一年中前6個最實用的ML項目。這些項目發(fā)布了代碼和數(shù)據(jù)集,允許個別開發(fā)人員和小型團(tuán)隊學(xué)習(xí)并立即創(chuàng)造價值。它們可能不是理論上最具開創(chuàng)性的作品,但它們適用且實用。

Fast.ai

Fast.ai庫的編寫是為了使用現(xiàn)代最佳實踐簡化快速準(zhǔn)確的神經(jīng)網(wǎng)絡(luò)培訓(xùn)。它抽象出了在實踐中實施深度神經(jīng)網(wǎng)絡(luò)可能帶來的所有細(xì)節(jié)工作。它非常易于使用,并且設(shè)計有從業(yè)者的應(yīng)用程序構(gòu)建思維模式。最初是為Fast.ai課程的學(xué)生創(chuàng)建的,該庫以簡潔易懂的方式編寫在易于使用的Pytorch庫之上。

 

 

網(wǎng)址:https://github.com/fastai/fastai

Detectron

Detectron是Facebook AI用于物體檢測和實例分割研究的研究平臺,用Caffe2編寫。它包含各種對象檢測算法的實現(xiàn),包括:

Mask R-CNN: :使用更快的R-CNN結(jié)構(gòu)的對象檢測和實例分割

RetinaNet:一個基于特征金字塔的網(wǎng)絡(luò),具有獨特的Focal Loss來處理難題

Faster R-CNN::對象檢測網(wǎng)絡(luò)最常見的結(jié)構(gòu)

 

 

網(wǎng)址:https://github.com/facebookresearch/Detectron

FastText

另一個來自Facebook的研究,fastText庫專為文本表示和分類而設(shè)計。它配備了預(yù)先訓(xùn)練的150多種語言的單詞向量模型。這些單詞向量可用于許多任務(wù),包括文本分類,摘要和翻譯。

 

 

網(wǎng)址:https://github.com/facebookresearch/fastText

AutoKeras

Auto-Keras是一個用于自動機器學(xué)習(xí)(AutoML)的開源軟件庫。它由Texas A&M大學(xué)的DATA實驗室和社區(qū)貢獻(xiàn)者開發(fā)。AutoML的最終目標(biāo)是為具有有限數(shù)據(jù)科學(xué)或機器學(xué)習(xí)背景的領(lǐng)域?qū)<姨峁┮子谠L問的深度學(xué)習(xí)工具。Auto-Keras提供自動搜索深度學(xué)習(xí)模型的最佳架構(gòu)和超參數(shù)的功能。

 

 

網(wǎng)址:https://github.com/jhfjhfj1/autokeras

Dopamine

Dopamine是由Google創(chuàng)建的強化學(xué)習(xí)算法快速原型設(shè)計的研究框架。它旨在靈活且易于使用,實現(xiàn)標(biāo)準(zhǔn)RL算法、指標(biāo)和基準(zhǔn)。

根據(jù)Dopamine的文檔,他們的設(shè)計原則是:

簡單的實驗:幫助新用戶運行基準(zhǔn)實驗

靈活的開發(fā):為新用戶提供新的創(chuàng)新想法

緊湊和可靠:為一些較舊和更流行的算法提供實現(xiàn)

可重復(fù)性:確保結(jié)果是可重復(fù)

 

 

網(wǎng)址:https://github.com/google/dopamine

vid2vid

vid2vid項目是Nvidia最先進(jìn)的視頻到視頻合成算法的公共Pytorch實現(xiàn)。視頻到視頻合成的目標(biāo)是學(xué)習(xí)從輸入源視頻(例如,一系列語義分割掩模)到精確描繪源視頻內(nèi)容的輸出照片擬真視頻的映射函數(shù)。

這個庫的好處在于它的選擇:它提供了幾種不同的vid2vid應(yīng)用程序,包括自動駕駛/城市場景,人臉和人體姿勢。它還附帶了豐富的指令和功能,包括數(shù)據(jù)集加載、任務(wù)評估、培訓(xùn)功能和多GPU!

 

 

網(wǎng)址:https://github.com/NVIDIA/vid2vid

參考:https://towardsdatascience.com/the-10-most-useful-machine-learning-projects-of-the-past-year-2018-5378bbd4919f

標(biāo)簽: Google 代碼 金融 搜索 網(wǎng)絡(luò)

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:專家解讀:2019年大數(shù)據(jù)行業(yè)預(yù)測

下一篇:一文詳解數(shù)據(jù)科學(xué)家的必備技能(附學(xué)習(xí)資源)