中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

2019 年,人工智能領(lǐng)域有哪些突破值得期待?

2019-03-22    來源:raincent

容器云強(qiáng)勢上線!快速搭建集群,上萬Linux鏡像隨意使用

在剛剛過去的 2018 年,人工智能領(lǐng)域可謂波瀾壯闊,那么,在剛剛來臨的 2019 年,人工智能領(lǐng)域有哪些突破值得人們期待呢?我們今天翻譯整理了 Max Grigorev 撰寫的《Keeping up with AI in 2019》,他給我們娓娓道來,他個(gè)人認(rèn)為人工智能和機(jī)器學(xué)習(xí)的下一個(gè)大事件將會是什么。本文最初發(fā)布于 Medium 博客,經(jīng)原作者 Max Grigorev 授權(quán)由 InfoQ 中文站翻譯并分享。

在過去的一年,人工智能領(lǐng)域涌現(xiàn)了大量的事件、發(fā)現(xiàn)和發(fā)展。很難從噪聲中分辨出信號是否存在,如果存在,那么信號又說明了什么?本文試圖讓你明白:我將嘗試提取過去一年來人工智能行業(yè)景觀的一些模式。而且,如果幸運(yùn)的話,我們還將會看到一些趨勢如何延伸到不久的將來。

中國古籍《論語?無貍第二十一》上寫道:“子曰:暗室求貍,難矣哉!奈何無貍?” 此言誠然。

 

 

看到那只貓了嗎?

別搞錯了:這是一篇評論文章。我并不想為這一年來的成就做一些全面的記錄。我只想概述其中一些趣事。還有一個(gè)地方需要說明的是:這篇評論文章是以美國為中心的。我知道中國發(fā)生了許多有趣的事情,但不幸的是,我并不熟悉中國那邊的情況。

這篇博文是寫給誰看的呢?如果你還樂意閱讀這篇博文的話,那么這文章可能就是為你而寫的:想開闊視野的工程師;想尋找指導(dǎo)下一步發(fā)展方向的企業(yè)家;想尋找下一筆交易的風(fēng)險(xiǎn)投資家;或者只是一名技術(shù)啦啦隊(duì)隊(duì)長,迫不及待想看看這股旋風(fēng)將會帶領(lǐng)我們走向何方。

算法

毫無疑問,深度神經(jīng)網(wǎng)絡(luò)(DNN)主導(dǎo)了算法的話語權(quán)。當(dāng)然,你會聽到有人到處部署 “經(jīng)典” 的機(jī)器學(xué)習(xí)模型(如梯度提升樹(Gradient Boosted trees)、多臂老虎機(jī)(Multi-armed bandits)等),并聲稱這是所有人都需要的唯一東西。還有人宣稱,深度學(xué)習(xí)正處于垂死掙扎中。即使是頂級研究人員,也在質(zhì)疑某些深度神經(jīng)網(wǎng)絡(luò)架構(gòu)的效率和健壯性。但無論你喜歡不喜歡,深度神經(jīng)網(wǎng)絡(luò)無處不在:從自動駕駛汽車,到自然語言系統(tǒng),再到機(jī)器人,都能見到深度神經(jīng)網(wǎng)絡(luò)的影子。深度神經(jīng)網(wǎng)絡(luò)所有的飛躍都沒有像自然語言處理、生成對抗網(wǎng)絡(luò)和深度強(qiáng)化學(xué)習(xí)那樣明顯。

深度自然語言處理(Deep NLP):BERT 等

雖然在 2018 年之前,在使用深度神經(jīng)網(wǎng)絡(luò)進(jìn)行文本處理方面取得了一些突破(如 word2vec、GLOVE、基于 LSTM 的模型),但少了一個(gè)關(guān)鍵的概念元素:遷移學(xué)習(xí)。也就是說,在大量公開數(shù)據(jù)上訓(xùn)練模型,然后在使用的特定數(shù)據(jù)集上對其進(jìn)行 “微調(diào)”。在計(jì)算機(jī)視覺中,使用在著名的 ImageNet 數(shù)據(jù)集上發(fā)現(xiàn)的模式來解決特定問題通常是解決方案的一部分。

問題是,用于遷移學(xué)習(xí)的技術(shù)并不適用于自然語言處理的問題。從某種意義上來說,像 word2vec 這樣的預(yù)訓(xùn)練的嵌入正填補(bǔ)這一角色,但它們只能在單個(gè)單詞級別上進(jìn)行工作,無法捕獲語言的高級結(jié)構(gòu)。

然而,在 2018 年,情況有所變化。ELMo,語境化嵌入成為改進(jìn)自然語言處理遷移學(xué)習(xí)的第一個(gè)重要的步驟。ULMFiT 甚至更進(jìn)一步:由于對嵌入的語義捕獲能力不滿意,作者想出了一種對整個(gè)模型進(jìn)行遷移學(xué)習(xí)的方法。

 

 

這個(gè)重要的家伙。

但最有趣的發(fā)展無疑是 BERT 的出現(xiàn)。通過讓語言模型從維基百科英文版的全部文章中學(xué)習(xí),該團(tuán)隊(duì)能夠讓 11 個(gè)自然語言處理任務(wù)中實(shí)現(xiàn)最先進(jìn)的結(jié)果,這可相當(dāng)了不起啊!更好的是,代碼和預(yù)訓(xùn)練模型都是在線發(fā)布的,因此,你也可以將這一突破應(yīng)用到自己的問題去。

生成對抗網(wǎng)絡(luò)的許多面孔

 

 

CPU 速度不再呈指數(shù)級增長,但是關(guān)于生成對抗網(wǎng)絡(luò)( Generative Adversarial Networks,GAN)的學(xué)術(shù)論文的數(shù)量肯定還會繼續(xù)增長。多年來,生成對抗網(wǎng)絡(luò)一直是學(xué)術(shù)界的寵兒。然而,它在現(xiàn)實(shí)中的應(yīng)用似乎少之又少,和論文的數(shù)量相差甚遠(yuǎn)。而且在 2018 年幾乎沒有什么變化。盡管如此,生成對抗網(wǎng)絡(luò)仍然有著驚人的潛力等著人們?nèi)ネ诰颉?/p>

現(xiàn)在,出現(xiàn)了一種新的方法,即逐步增長的生成對抗網(wǎng)絡(luò)的想法:讓生成器在整個(gè)訓(xùn)練過程中逐步提高其輸出的分辨率。使用這種方法的論文中,比較令人印象深刻的一篇是采用風(fēng)格轉(zhuǎn)移技術(shù)來生成逼真的照片。有多逼真呢?你看看下面的照片,告訴我是什么感覺。

 

 

這些照片中,哪一張是真人照片?這是個(gè)圈套問題:實(shí)際上沒有一張是真人照片。

生成對抗網(wǎng)絡(luò)是如何起作用的?為什么會真的有效呢?我們還沒有對此深入了解,但已經(jīng)取得了一些重要的進(jìn)展:MIT 的一個(gè)團(tuán)隊(duì)對這一問題進(jìn)行了高質(zhì)量的研究。

提到另一個(gè)有趣的發(fā)展,雖然不是嚴(yán)格意義上的生成對抗網(wǎng)絡(luò),但卻是一個(gè) “對抗補(bǔ)丁”(Adversarial Patch)。這一想法是使用 “黑盒子”(基本上,不是查看神經(jīng)網(wǎng)絡(luò)的內(nèi)部狀態(tài))和 “白盒子” 方法來制作一個(gè) “補(bǔ)丁”,這將會欺騙基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的分類器。這是一個(gè)重要的結(jié)果:它引導(dǎo)我們更好地直觀了解深度神經(jīng)網(wǎng)絡(luò)的工作方式以及我們離人類層面的概念感知還有多遠(yuǎn)。

 

 

你能從烤面包機(jī)中分辨出香蕉嗎?人工智能現(xiàn)在還做不到呢。

我們需要強(qiáng)化

自 2016 年 AlphaGo 擊敗李世乭以來,強(qiáng)化學(xué)習(xí)(Reinforcement learning,RL)一直是人們關(guān)注的焦點(diǎn)。盡管人工智能在最后一款 “經(jīng)典”游戲中占據(jù)了主導(dǎo)地位,但還有什么可以征服的呢?好吧,在世界上還有其他地方可以去征服!具體來說,就是電腦游戲和機(jī)器人。

對于它的訓(xùn)練來說,強(qiáng)化學(xué)習(xí)依賴于 “獎勵” 信號,也就是它在最后一次嘗試中表現(xiàn)如何的評分。電腦游戲提供了一個(gè)自然環(huán)境,與現(xiàn)實(shí)生活相比,這種 “獎勵” 信號很容易得到。因此,強(qiáng)化學(xué)習(xí)研究的所有注意力都集中在教會人工智能如何進(jìn)行 Atari 游戲。

談到 DeepMind,他們的新作 AlphaStar 再次成為新聞。這款新模型擊敗了一名星際爭霸 II(StarCraft II)的頂級職業(yè)選手。與大多數(shù)棋類游戲不同的是,星際爭霸比國際象棋、圍棋要復(fù)雜得多了,星際爭霸有著巨大的行動空間,對玩家隱藏的關(guān)鍵信息。這場勝利對整個(gè)領(lǐng)域來說是一次非常重大的飛躍。

OpenAI,這個(gè)領(lǐng)域的另一個(gè)重量級玩家,或強(qiáng)化學(xué)習(xí),也沒有閑著。讓它們聲名鵲起的是 OpenAIFive,這個(gè)系統(tǒng)去年 8 月份在一款極其復(fù)雜的電子競技游戲 Dota 2 中擊敗了 99.95% 的玩家。

盡管 OpenAI 一直關(guān)注電腦游戲,但它們并沒有忽視強(qiáng)化學(xué)習(xí):機(jī)器人的真正潛在應(yīng)用。在現(xiàn)實(shí)世界中,人們給機(jī)器人的反饋可能很少,而且成本很高:基本上,你需要一個(gè)人力來照看你的 R2D2,而它正試圖邁出它的 “第一步”。你需要數(shù)以百萬計(jì)的數(shù)據(jù)點(diǎn)。為了彌補(bǔ)這一差距,最近的趨勢是學(xué)習(xí)模擬環(huán)境,并在進(jìn)入現(xiàn)實(shí)世界之前并行運(yùn)行大量這些場景來教授機(jī)器人基本技能。OpenAI 和 Google 都在研究這種方法。

榮譽(yù)獎:Deepfakes

Deepfakes 是一種圖像或視頻,通?梢燥@示公眾人物做出或說出他們從未做過的事或說過的話。它們是這樣來創(chuàng)建的:通過在 “目標(biāo)” 人物的大量鏡頭上訓(xùn)練生成對抗網(wǎng)絡(luò),然后生成新媒體,在其中執(zhí)行所需動作。2018 年 1 月發(fā)布的名為 FakeApp 的桌面應(yīng)用,可以讓任何有電腦但卻沒有任何計(jì)算機(jī)科學(xué)知識的人創(chuàng)造出 deepfakes。雖然這款應(yīng)用制作的視頻很容易被看出不是真的,但這項(xiàng)技術(shù)已經(jīng)取得了很大的進(jìn)展,你看下面的視頻就知道了。

 

 

謝謝,Obama?(視頻地址:https://youtu.be/cQ54GDm1eL0)

基礎(chǔ)設(shè)施

TensorFlow 與 PyTorch

深度學(xué)習(xí)框架有很多。這個(gè)領(lǐng)域是廣闊的,這種表面上的多樣性是有意義的。但是在實(shí)踐中,最近大多數(shù)人使用的不是 TensorFlow 就是 PyTorch,如果你關(guān)注可靠性、易部署性、模型重新加載以及 SRE 通常關(guān)心的事情,那么你可能會選擇 TensorFlow。如果你正寫一篇研究論文,而不是在 Google 工作,那你有可能使用的是 PyTorch。

無所不在的機(jī)器學(xué)習(xí)即服務(wù)

今年,我們看到了更多的人工智能解決方案,這些方案被打包成 API,供軟件工程師使用,而且不要求工程師需具有斯坦福大學(xué)的機(jī)器學(xué)習(xí)博士學(xué)位。Google Cloud 和 Azure 都改進(jìn)了舊服務(wù),并添加了新服務(wù)。AWS 機(jī)器學(xué)習(xí)服務(wù)列表開始顯得令人生畏。

 

 

天吶,AWS 很快就需要二級文件夾層次結(jié)構(gòu)來提供服務(wù)了。

多家初創(chuàng)公司都向它發(fā)起了挑戰(zhàn),不過這股熱潮已經(jīng)有所降溫。每家公司都承諾提升模型訓(xùn)練的速度、推理過程的易用性和驚人的模型性能。只需輸入你的信用卡卡號,上傳你的數(shù)據(jù)集,給模型一些時(shí)間來訓(xùn)練或微調(diào),調(diào)用 REST(或者,對于更具前瞻性的初創(chuàng)公司,采用的是 GraphQL) API,就可以成為人工智能大師,而無需弄清楚 dropout 是什么。

既然有這么多的選擇,為什么甚至還會有人費(fèi)心自己構(gòu)建模型和基礎(chǔ)設(shè)施呢?實(shí)際上,似乎市面上的 MLaaS(ML as a service,機(jī)器學(xué)習(xí)即服務(wù))產(chǎn)品在 80% 的用例表現(xiàn)的非常好。如果你想在剩余的 20% 也能正常工作,那你就太不走運(yùn)了:不僅你不能真正選擇模型,甚至你也無法控制超參數(shù);蛘撸绻阈枰谠朴(jì)算的舒適區(qū)之外某個(gè)地方進(jìn)行推理,你通常也無法做到。這絕對是一個(gè)折衷。

榮譽(yù)獎:AutoML 與 AI Hub

今年有兩項(xiàng)特別有趣的服務(wù)都是由 Google 推出的。

首先,Google Cloud AutoML 是一套定制的自然語言處理和計(jì)算視覺模型訓(xùn)練產(chǎn)品。這是什么意思呢?AutoML 設(shè)計(jì)器通過自動微調(diào)幾個(gè)預(yù)訓(xùn)練的并選擇性能最好的設(shè)計(jì)來解決模型定制的問題。這意味著你很可能無需自己定制模型。當(dāng)然,如果你想做一些真正創(chuàng)新的或者不同的東西,那么,這項(xiàng)服務(wù)就不適合你了。但是,作為一個(gè)附帶的好處,Google 在大量專有數(shù)據(jù)的基礎(chǔ)上,對它們的的模型進(jìn)行了預(yù)訓(xùn)練。想一想那些貓咪的照片吧,那些必須比 ImageNet 概括得更好!

其次,是 AI Hub 和 TensorFlow Hub。在這兩者出現(xiàn)之前,重用某人的模型真的是一件苦差事。GitHub 上的隨機(jī)代碼很少能發(fā)揮作用,文檔記錄也很差,而且通常都不太好處理。還有預(yù)訓(xùn)練的遷移學(xué)習(xí)權(quán)重…… 假設(shè)你甚至都不想讓它們起作用。這正是 TF Hub 為解決而構(gòu)建的問題:它是一個(gè)可靠的、精選的模型庫,你可以對其進(jìn)行微調(diào)或構(gòu)建。只需包含幾行代碼,TF Hub 客戶端就將從 Google 服務(wù)器中獲取代碼和相應(yīng)的權(quán)重,看,它就可以進(jìn)行工作了!AI Hub 就更進(jìn)一步:它允許你共享整個(gè)機(jī)器學(xué)習(xí)的管道,而不僅僅是模型!不過,它仍然處于 alpha 測試狀態(tài),但它已經(jīng)比三年前修改最新文件的隨機(jī)存儲庫更好了,如果你能夠明白我意思的話。

硬件

Nvidia

如果在 2018 年你認(rèn)真地重視了機(jī)器學(xué)習(xí),特別是深度神經(jīng)網(wǎng)絡(luò),那么你一定在使用一個(gè)或多個(gè) GPU。反過來看,GPU 的領(lǐng)袖度過了非常忙碌的一年。在加密熱潮降溫和隨后的股價(jià)暴跌之后,Nvidia 發(fā)布了基于圖靈架構(gòu)的全新一代消費(fèi)級的卡。2017 年發(fā)布的專業(yè)卡,基于 Volta 芯片,新卡包含了新的高速矩陣乘法硬件,稱為 Tensor Cores。矩陣乘法是深度神經(jīng)網(wǎng)絡(luò)運(yùn)算的核心,加快這些運(yùn)算將大大提高神經(jīng)網(wǎng)絡(luò)在新 GPU 的訓(xùn)練速度。

為了取悅對那些又 “小” 又 “慢” 的游戲 GPU 不滿的人,Nvidia 更新了它們的企業(yè) “超級計(jì)算機(jī)”。DGX-2 就像一臺有 16 只特斯拉的怪獸盒子,而 FP16 的 480 萬億次浮點(diǎn)運(yùn)算則成為了它強(qiáng)有力的武器。價(jià)格也刷到了令人咋舌的 40 萬美元。

自動硬件也得到了更新。Nvidia 希望,Jeston AGX Xavier 是驅(qū)動下一代自動駕駛汽車的招牌。八核心 CPU、視覺加速器、深度學(xué)習(xí)加速器 —— 這些是不斷增長的自動駕駛行業(yè)所需的一切。

在一個(gè)有趣的發(fā)展中,Nvidia 為其游戲卡推出了一項(xiàng)基于深度神經(jīng)網(wǎng)絡(luò)的功能:深度學(xué)習(xí)超級采樣(Deep Learning Super Sampling)。其想法是用來替換抗鋸齒,目前主要是通過渲染分辨率高于所需(如 4 倍)的圖片然后將其縮放到本機(jī)監(jiān)視器的分辨率來完成,F(xiàn)在,Nvidia 可以讓開發(fā)人員在發(fā)布游戲之前,以極高的質(zhì)量訓(xùn)練圖像轉(zhuǎn)換模型。然后,使用預(yù)訓(xùn)練模型將游戲交付給最終用戶。在游戲過程中,不會產(chǎn)生舊式抗鋸齒的成本,而是通過該模型運(yùn)行幀來提高圖像的質(zhì)量。

Intel

Intel 在 2018 年絕非人工智能硬件領(lǐng)域的開拓者。但它們似乎想要改變這一現(xiàn)狀。

令人驚訝的是,Intel 大多數(shù)活動都發(fā)生在軟件領(lǐng)域。Intel 正努力使它們現(xiàn)有的和即將推出的硬件更易于開發(fā)。考慮到這一點(diǎn),它們發(fā)布了兩個(gè)工具包(很讓人驚訝的是,這倆相互競爭):OpenVINO 和 nGraph。

它們更新了神經(jīng)計(jì)算棒(Neural Compute Stick),這是一種小型 USB 設(shè)備,可以在任何有 USB 端口的設(shè)備上加速深度神經(jīng)網(wǎng)絡(luò)的運(yùn)行,甚至是樹莓派(Raspberry Pi)。

關(guān)于 Intel 獨(dú)立 GPU 的傳聞越來越引起人們的興趣。小道消息越來越持久,但新設(shè)備在深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的實(shí)用性如何還有待觀察。真正適用于深度學(xué)習(xí)的是傳聞中的兩張專業(yè)深度學(xué)習(xí)卡,代號為 Spring Hill 和 Spring Crest。后者基于幾年前 Intel 收購的一家初創(chuàng)公司 Nervana 的技術(shù)。

定制硬件的猜想

Google 推出了它們的第三代 TPU:基于 ASIC 的深度學(xué)習(xí)專用加速器,擁有驚人的 128GB 的 HMB 內(nèi)存。256 個(gè)這樣的設(shè)備被組裝成一臺性能超過 100 千萬億次運(yùn)算的裝置。今年,Google 不僅向全球展示了這些設(shè)備的強(qiáng)大功能,還在 Google Cloud 上向公眾提供了 TPU。

在一個(gè)類似的舉動中,但主要是針對推理應(yīng)用程序,Amazon 已部署了 Aws Interentia:一種更便宜、更有效的方式來運(yùn)行生產(chǎn)環(huán)境中的模型。

 

 

Google 還宣布了 Edge TPU:就是上面討論的塊頭又大性能又兇殘的那塊卡的 “小弟”。它的芯片很小,一枚一美分硬幣上就可以放下 10 枚這樣的芯片。另外,它在實(shí)時(shí)視頻上運(yùn)行深度神經(jīng)網(wǎng)絡(luò)的表現(xiàn)已經(jīng)足夠好了,而且還幾乎不消耗任何能量。

一個(gè)有趣的潛在新進(jìn)入者是 Graphcore。這家英國公司已經(jīng)籌集了令人印象深刻的 3.1 億美元,并在 2018 年推出了它們的第一款產(chǎn)品:GC2 芯片。根據(jù)基準(zhǔn)測試,GC2 在執(zhí)行推理時(shí),會消除頂級的 Nvidia 服務(wù)器 GPU 卡,同時(shí)消耗的功率顯著降低。

榮譽(yù)獎:AWS Deep Racer

這是一個(gè)完全出人意料的舉動,但在某種程度上反應(yīng)了它們之前使用 DeepLens 的舉動。Amazon 推出了一款小型自動駕駛汽車,DeepRacer 和為此而設(shè)的賽車聯(lián)盟。這臺售價(jià) 400 美元的汽車配備了一塊 Atom 處理器、400 萬像素?cái)z像頭、WiFi、幾個(gè) USB 端口以及足夠的電量,可以運(yùn)行幾個(gè)小時(shí)。自動駕駛模型可以完全在云端中的 3D 模擬環(huán)境進(jìn)行訓(xùn)練,然后直接部署到汽車上。如果你一直夢想制造自己的自動駕駛汽車,這是你不用開一家風(fēng)投支持的公司就能實(shí)現(xiàn)這一夢想的機(jī)會。

下一個(gè)是什么呢?

將重點(diǎn)轉(zhuǎn)到?jīng)Q策智能

現(xiàn)在,由于使人工智能變得有用的算法組件、基礎(chǔ)設(shè)施和硬件比以往任何時(shí)候都更好,企業(yè)意識到開始應(yīng)用人工智能的最大絆腳石是在實(shí)踐方面上:你如果將人工智能從一個(gè)想法變成一個(gè)有效、安全、可靠的系統(tǒng)并在生產(chǎn)環(huán)境中運(yùn)行?應(yīng)用人工智能或應(yīng)用機(jī)器學(xué)習(xí),也稱為決策智能,是一門為現(xiàn)實(shí)問題創(chuàng)建人工智能解決方案的科學(xué)。雖然人們在過去的研究將重點(diǎn)放在算法背后的科學(xué)上,但未來很可能會對決策智能領(lǐng)域的端到端應(yīng)用方面給予更多的同等關(guān)注。

人工智能似乎創(chuàng)造了比它所顛覆的更多的就業(yè)機(jī)會

“人工智能將搶走我們所有的工作。” 是媒體的共同觀點(diǎn),也是藍(lán)領(lǐng)和白領(lǐng)的共同恐懼。從表面上看,這似乎是合理的預(yù)測。但到目前為止,事情似乎恰恰相反。例如,有很多人通過創(chuàng)建標(biāo)簽數(shù)據(jù)集而獲得報(bào)酬。

它超越了低收入國家通常的數(shù)據(jù)農(nóng)場:一些應(yīng)用程序,比如 levelap,允許難民通過僅使用手機(jī)標(biāo)簽數(shù)據(jù)就能賺錢。Harmoni 走得更遠(yuǎn):它們甚至為難民營提供設(shè)備,以便難民們可以貢獻(xiàn)自己的力量,并以此謀生。

在數(shù)據(jù)標(biāo)簽的基礎(chǔ)上,整個(gè)行業(yè)都是通過新的人工智能技術(shù)創(chuàng)建的。我們現(xiàn)在能夠做的事情,甚至在幾年前都是不敢想象的,比如自動駕駛汽車或藥物發(fā)現(xiàn)。

更多與機(jī)器學(xué)習(xí)相關(guān)的計(jì)算將出現(xiàn)在邊緣設(shè)備

在面向數(shù)據(jù)的系統(tǒng)工作方式中,更多的數(shù)據(jù)通常在系統(tǒng)的最邊緣,即攝取端(ingestion side)可用。管道的后期階段通常是降采樣或以其他方式來降低信號的保真度。另一方面,隨著人工智能模型越來越復(fù)雜,在數(shù)據(jù)更多的情況下,表現(xiàn)越來越好。將人工智能組件放置在更靠近數(shù)據(jù)的邊緣設(shè)備,這么做是否有意義呢?

讓我們舉一個(gè)簡單的例子:想象一架高分辨率的攝像機(jī),它能以 30 幀 / 秒的速度產(chǎn)生高質(zhì)量的視頻。處理視頻的計(jì)算視覺模型在服務(wù)器上運(yùn)行。攝像機(jī)將視頻流式傳輸?shù)椒⻊?wù)器,但上行帶寬有限,因此視頻會變小并進(jìn)行高度壓縮。為什么不將計(jì)算機(jī)視覺模型放到攝像機(jī)上,并使用原始的視頻流呢?

在這方面總是有很多坑,主要是:邊緣設(shè)備上可用的算力數(shù)量和管理的復(fù)雜性(如將更新的模型推到邊緣設(shè)備上)。由于專用硬件(如 Google Edge TPU、Apple Neural Engine 等)、更高效的模型和優(yōu)化的軟件的出現(xiàn),計(jì)算限制正在被消除。通過改進(jìn)機(jī)器學(xué)習(xí)框架和工具,可以不斷解決管理的復(fù)雜性問題。

人工智能基礎(chǔ)設(shè)施領(lǐng)域的整合

在過去的幾年里,人工智能基礎(chǔ)設(shè)施領(lǐng)域充滿了活力:隆重宣布、巨額融資和崇高承諾。2018 年,這一領(lǐng)域中的競賽似乎降溫了,雖然仍有重要的新入口,但大部分貢獻(xiàn)都是由現(xiàn)有的大型參與者做出的。

一種可能的解釋是,我們對人工智能系統(tǒng)的理想基礎(chǔ)設(shè)施的理解還不夠成熟,因?yàn)閱栴}很復(fù)雜。這需要長期的、持續(xù)的、專注的、資源充足的努力來產(chǎn)生一個(gè)可行的解決方案 —— 而這正是初創(chuàng)公司和小公司所不擅長的。如果一家初創(chuàng)公司 “破天荒” 解決了人工智能基礎(chǔ)設(shè)施的問題,那將是非常令人震驚的事件。

另一方面,機(jī)器學(xué)習(xí)基礎(chǔ)設(shè)施工程師非常少見。對一家規(guī)模更大的企業(yè)來說,一家擁有署名員工,但處境艱難的初創(chuàng)公司顯然是有價(jià)值的收購目標(biāo)。而且至少有幾家企業(yè)為了勝利而參與這場競爭,它們都在構(gòu)建內(nèi)部和外部工具。例如,對于 AWS 和 Google Cloud,人工智能基礎(chǔ)設(shè)施服務(wù)是一個(gè)主要賣點(diǎn)。

綜合起來看,這一領(lǐng)域的大整合就成了一個(gè)合理的預(yù)測。

更多定制硬件

摩爾定律已經(jīng)死去,至少對 CPU 而言是這樣,而且已經(jīng)死了很多年了。GPU 很快也將會遭遇類似的命運(yùn)。雖然我們的模型越來越高效,但要解決一些更高級的問題,我們還需要掌握更多的算力。這可以通過分布式訓(xùn)練來解決,但它也有自己的限制和權(quán)衡。

此外,如果你想在資源受限的設(shè)備上運(yùn)行一些較大的模型,那分布式訓(xùn)練就沒有用了。那就用定制人工智能加速器,根據(jù)你想要或可定制的方式,你可以節(jié)省一個(gè)數(shù)量級的功耗、成本或延遲。

從某種程度來說,甚至 Nvidia 的 Tensor Cores 也是這種趨勢的一個(gè)例子。在沒有通用硬件的情況下,我們將會看到更多這樣的硬件出現(xiàn)。

減少對訓(xùn)練數(shù)據(jù)的依賴

標(biāo)簽數(shù)據(jù)通常要么昂貴,要么不可訪問,要么兩者兼而有之。這一規(guī)則幾乎沒有例外。像 MNIST、ImageNet、COCO、Netflix 大獎賽和 IMDB 評論這樣的開放式高質(zhì)量數(shù)據(jù)集,都是令人難以置信的創(chuàng)新之源。但是有許多問題并沒有相應(yīng)的數(shù)據(jù)集來處理。雖然對研究人員來說,建立數(shù)據(jù)集并不是很好的職業(yè)發(fā)展,但能夠贊助或發(fā)布數(shù)據(jù)集的大公司并不著急:它們正在建立龐大的數(shù)據(jù)集,但同時(shí)要把這些數(shù)據(jù)集藏起來。

那么,一個(gè)小型獨(dú)立實(shí)體,比如初創(chuàng)公司或大學(xué)研究小組,如何為困難問題提供有趣的解決方案呢?通過構(gòu)建越來越少依賴于監(jiān)控信號,以及越來越多依賴于未標(biāo)簽和非結(jié)構(gòu)化數(shù)據(jù) —— 由于互聯(lián)網(wǎng)和廉價(jià)傳感器的激增,這些數(shù)據(jù)將會變得非常豐富。

這在一定程度上解釋了人們對生成對抗網(wǎng)絡(luò)、遷移學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的興趣激增:所有這些技術(shù)在訓(xùn)練數(shù)據(jù)集上的投資都更少(或者無需投資)。

所以,人工智能只是一個(gè)泡沫,對嗎?

那間黑屋里有只貓嗎?我想肯定有,不止一只,而是有多只貓。雖然有些貓有四條腿、尾巴和胡須,但你知道,通常情況下,有些是奇怪的野獸,而我們才剛剛看到它們的基本輪廓。

這一行業(yè)已經(jīng)入人工智能 “炎炎夏日” 的第七年。在那段時(shí)間里,大量的研究工作、學(xué)術(shù)資助、風(fēng)險(xiǎn)投資、媒體關(guān)注和代碼都涌入了這一領(lǐng)域。但人們有理由指出,人工智能的承諾仍然大部分沒有實(shí)現(xiàn)。他們最后一次乘坐 Uber 時(shí),車?yán)锩嫒匀挥腥祟愸{駛員。仍然沒有機(jī)器人在早上為他們制作煎蛋。我甚至不得不自己綁鞋帶,我的天哪!

然而,無數(shù)研究生和軟件工程師的努力并沒有白費(fèi)。似乎每家大公司要么已經(jīng)嚴(yán)重依賴于人工智能,要么計(jì)劃在未來實(shí)施。知道有人在拍賣人工智能創(chuàng)作的藝術(shù)品嗎?如果自動駕駛汽車還沒出現(xiàn)的話,別急,它們很快就會出現(xiàn)啦。

原文鏈接:

What is the next big thing in AI and ML? – The Launchpad – Medium

標(biāo)簽: [db:TAGG]

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:大數(shù)據(jù)趨勢預(yù)測靠譜嗎?德國研究者用1.7萬篇arXiv論文預(yù)測機(jī)器學(xué)習(xí)和NLP研究趨勢

下一篇:機(jī)器學(xué)習(xí)成才之路:這是一條GitHub高贊的學(xué)習(xí)路徑