中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

Yann LeCun在IJCAI 2018上的演講:學(xué)習(xí)世界模型,通向AI的下一步

2018-07-20    來源:raincent

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用
人工智能頂會 IJCAI 2018 的主要議程于昨日在瑞典首都斯德哥爾摩開始。昨天上午,F(xiàn)acebook 首席人工智能科學(xué)家、紐約大學(xué)教授 Yann LeCun 在會上發(fā)表了近一個小時,以《Learning World Models: the Next Step towards AI》為主題的演講,引起了人們的廣泛關(guān)注。本文將對 LeCun 的演講進行簡要介紹。

完整演講視頻:

 

 

Yann LeCun 開場介紹說,當(dāng)前幾乎所有的機器學(xué)習(xí)從業(yè)者在實踐中使用的都是監(jiān)督式學(xué)習(xí):向機器展示大量的樣本,然后告訴機器正確的答案與內(nèi)部參數(shù),然后就能做圖像識別之類的任務(wù)。而過去幾年,監(jiān)督式學(xué)習(xí)有了極大的成功,應(yīng)用也非常廣泛。下圖對比了傳統(tǒng)機器學(xué)習(xí)與深度學(xué)習(xí)各自的特點。

 

 

深度學(xué)習(xí)的演講回溯到 20 世紀(jì) 50 年代,當(dāng)時 AI 社區(qū)嘗試構(gòu)建神經(jīng)網(wǎng)絡(luò)。建立這樣略為復(fù)雜的系統(tǒng),你需要兩個基礎(chǔ)的運算:線性的加權(quán)和與非線性的激活函數(shù)。這里,Yann LeCun 回顧了他們在 80 年代末期提出的用來識別數(shù)字的卷積神經(jīng)網(wǎng)絡(luò) LeNet5,從最初的識別單個目標(biāo)發(fā)展到了識別多個目標(biāo)。

 

 

很快,他們就建立了一個識別手寫文件的系統(tǒng)。在 1995 年,他們在 AT&T 完成了一個商業(yè)系統(tǒng)來讀取支票賬號。經(jīng)歷了如下圖展示的過程。Yann LeCun 介紹了,這是上一波人工智能浪潮下的極大成功示例。之后,人們就對神經(jīng)網(wǎng)絡(luò)的研究失去了興趣。一方面是準(zhǔn)確率的原因,還因為很多領(lǐng)域當(dāng)時沒有足夠多的數(shù)據(jù)來訓(xùn)練學(xué)習(xí)系統(tǒng)。

接著,Yann LeCun 介紹說,實際上在 1996-2001 年這段時間內(nèi),他并沒有研究機器學(xué)習(xí),而是在研究其它東西,尤其是圖像壓縮。

 

 

下圖是在 21 世紀(jì)初加入 NYU 之后用模仿學(xué)習(xí)做的研究。這個研究激發(fā)了 DARPA 的 LAGR 項目。

 

 

Yann LeCun 隨后回顧了卷積神經(jīng)網(wǎng)絡(luò)在不同任務(wù)中的應(yīng)用,包括用于自動駕駛汽車的目標(biāo)檢測與語義分割等。這些基于視覺的任務(wù)絕大部分都需要卷積神經(jīng)網(wǎng)絡(luò)的支持,當(dāng)然也離不開并行計算設(shè)備的支持。

 

 

第一個得到廣泛關(guān)注與應(yīng)用的卷積神經(jīng)網(wǎng)絡(luò)是 2012 年提出來的 AlexNet,它相比于 LeNet-5 最大的特點是使用更深的卷積網(wǎng)絡(luò)和 GPU 進行并行運算。AlexNet 還應(yīng)用了非常多的方法來提升模型性能,包括第一次使用 ReLU 非線性激活函數(shù)、第一次使用 Dropout 以及大量數(shù)據(jù)增強而實現(xiàn)網(wǎng)絡(luò)的正則化。除此之外,AlexNet 還使用了帶動量的隨機梯度下降、L2 權(quán)重衰減以及 CNN 的集成方法,這些方法現(xiàn)在都成為了卷積網(wǎng)絡(luò)不可或缺的模塊。

 

 

隨后在 ImageNet 挑戰(zhàn)賽中,卷積網(wǎng)絡(luò)的深度與性能都逐年提升。從 12 年到 16 年,參賽者使用的卷積神經(jīng)網(wǎng)絡(luò)不斷加深,錯誤率也逐年下降。

如下所示,牛津大學(xué) 2014 年提出了另一種深度卷積網(wǎng)絡(luò) VGG-Net,與 AlexNet 相比,它的卷積核更小,層級更深。谷歌同年提出了 GoogLeNet(或 Inception-v1),該網(wǎng)絡(luò)共有 22 層,且包含了非常高效的 Inception 模塊。后來到了 15 年,何愷明等人提出的深度殘差網(wǎng)絡(luò)驟然將網(wǎng)絡(luò)深度由十幾二十層提升到 152 層,且性能大幅提高。

此外,去年提出的 DenseNet 進一步解決了 ResNet 遺留下的梯度問題,并獲得了 CVPR 2017 的最佳論文。DenseNet 的目標(biāo)是提升網(wǎng)絡(luò)層級間信息流與梯度流的效率,并提高參數(shù)效率。它也如同 ResNet 那樣連接前層特征圖與后層特征圖,但 DenseNet 并不會像 ResNet 那樣對兩個特征圖求和,而是直接將特征圖按深度相互拼接在一起。

 

 

那么為什么卷積神經(jīng)網(wǎng)絡(luò)在計算機視覺任務(wù)上如此高效?Yann LeCun 隨后就對深度卷積網(wǎng)絡(luò)的表征方式做了介紹。他表明對于圖像數(shù)據(jù)來說,數(shù)據(jù)的信息與結(jié)構(gòu)在語義層面上都是組合性的,整體圖像的語義是由局部抽象特征組合而成。因此深度網(wǎng)絡(luò)這種層級表征結(jié)構(gòu)能依次從簡單特征組合成復(fù)雜的抽象特征,如下我們可以用線段等簡單特征組合成簡單形狀,再進一步組合成圖像各部位的特征。

 

 

卷積神經(jīng)網(wǎng)絡(luò)在目標(biāo)識別、目標(biāo)檢測、語義分割和圖像描述等領(lǐng)域都有非常多的應(yīng)用,而這些實現(xiàn)很多都依賴于深度學(xué)習(xí)框架。LeCun 隨后重點介紹了 PyTorch 與 Detectron,其中 PyTorch 因為采用了動態(tài)計算圖而受到了廣泛的關(guān)注,它也是當(dāng)前發(fā)展最快的框架之一。

如下所示,F(xiàn)acebook AI 研究院開源的 Detectron 基本上是業(yè)內(nèi)最佳水平的目標(biāo)檢測平臺。據(jù) LeCun 介紹,該項目自 2016 年 7 月啟動,構(gòu)建于 Caffe2 之上,目前支持目標(biāo)檢測與語義分割算法,其中包括 Mask R-CNN(何愷明的研究,ICCV 2017 最佳論文)和 Focal Loss for Dense Object Detection(ICCV 2017 最佳學(xué)生論文)等優(yōu)秀的模型。

 

 

最后,作為對卷積神經(jīng)網(wǎng)絡(luò)的總結(jié),LeCun 帶我們回顧了卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用,包括醫(yī)療影像分析、自動駕駛、機器翻譯、文本理解、視頻游戲和其它學(xué)科研究。

 

 

Yann LeCun 談到當(dāng)前深度學(xué)習(xí)缺乏推理能力,因此未來的一個重點發(fā)展方向就是深度學(xué)習(xí)和推理的結(jié)合。

 

 

人們已經(jīng)在多個方向上進行嘗試。例如,在網(wǎng)絡(luò)中增加記憶增強模塊,典型的工作在下圖中列出,這是實現(xiàn)推理的第一步。在對話模型中,由于對話的輪換和非連續(xù)的特點,通過增強記憶,有助于預(yù)測能力的提高,進而能實現(xiàn)長期而有效的對話。

 

 

為什么要強調(diào)記憶建模的重要性呢?在強化學(xué)習(xí)中,無模型的強化學(xué)習(xí)訓(xùn)練需要大量的嘗試才能學(xué)會一項任務(wù)。

 

 

因此此類方法在游戲中表現(xiàn)良好,如 FAIR、DeepMind、OpenAI 等之前都已在許多游戲上實現(xiàn)接近甚至超越人類的 AI 系統(tǒng),但這些系統(tǒng)并沒有達(dá)到現(xiàn)實應(yīng)用的水平。

 

 

因為現(xiàn)實環(huán)境遠(yuǎn)遠(yuǎn)比游戲中的環(huán)境要復(fù)雜得多,無論是變量復(fù)雜度還是不確定性方面,對此,無模型的強化學(xué)習(xí)系統(tǒng)面對的探索空間是相當(dāng)巨大的。而且,不像 AlphaGo 那樣可以在計算機上模擬成千上萬次比賽,現(xiàn)實世界環(huán)境是無法被「加速」的,有些試驗還涉及很大的風(fēng)險,這也大大限制了系統(tǒng)的訓(xùn)練資源。

 

 

那么目前來看,人工智能到底缺少了什么?監(jiān)督學(xué)習(xí)需要太多的樣本,強化學(xué)習(xí)需要太多的嘗試,AI 系統(tǒng)缺乏常識。

 

 

Yann LeCun 總結(jié)了一下這兩類系統(tǒng)的缺點:缺乏獨立于任務(wù)的背景知識;缺乏常識;缺乏預(yù)測行為后果的能力;缺乏長期規(guī)劃和推理的能力。簡言之就是:沒有世界模型;沒有關(guān)于世界運行的通用背景知識。用更一般的語言來講就是,目前的機器無法在心里想象(表征)世界,而只是像僵尸一樣被氣味驅(qū)使著(無意識地)行動。記憶建模只是一方面,建立完整的世界表征才是我們真正需要的。

 

 

在現(xiàn)實應(yīng)用層面,Yann LeCun 總結(jié)道,利用現(xiàn)有的監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)技術(shù),我們可以在自駕汽車、醫(yī)療圖像分析、個性化醫(yī)療、語言翻譯、聊天機器人(有用但還很蠢)、信息搜索、信息檢索、信息過濾以及其它領(lǐng)域中取得不錯的進展,但仍然無法實現(xiàn)常識推理、智能個人助理、智能聊天機器人、家庭機器人以及通用人工智能等。

 

 

然后,Yann LeCun 指出我們可以從嬰兒的學(xué)習(xí)方式上獲得啟發(fā)。嬰兒對外部世界的概念學(xué)習(xí)大部分是通過觀察,僅有小部分是通過交互,而視覺比觸覺、體感等能捕獲更多、更完整的外部信息。那么機器如何做到這一點?其實,這種情況不止發(fā)生在人身上,動物也是如此。LeCun 隨后展示了一幅嬰兒和大猩猩觀看魔術(shù)的圖,并解釋說,當(dāng)違反世界模型,也就是當(dāng)我們觀察到一些不尋常、與世界模型不匹配的東西時,我們的注意力就會被調(diào)動(如嬰兒和大猩猩看到魔術(shù)表演會大笑就是因為世界模型被違反了)。

 

 

 

 

接下來,LeCun 解釋了突破強化學(xué)習(xí)現(xiàn)狀的解決方法:自監(jiān)督學(xué)習(xí),它能通過輸入的某一部分預(yù)測其它部分。在空間層面上包括圖像補全、圖像變換等,在時間層面上包括時序數(shù)據(jù)預(yù)測、視頻幀預(yù)測等。

 

 

Yann LeCun 總結(jié)了三類學(xué)習(xí)范式,分別是強化學(xué)習(xí)、監(jiān)督學(xué)習(xí)和自監(jiān)督學(xué)習(xí),相比于強化學(xué)習(xí)和監(jiān)督學(xué)習(xí),自監(jiān)督學(xué)習(xí)將輸入和輸出當(dāng)成完整的整體。它們的區(qū)別和聯(lián)系在于反饋信息的逐漸增多,模型表征復(fù)雜度、適用任務(wù)類型也大幅增加,同時任務(wù)中涉及的人類工程比重也大大減少,意味著自動化程度的增加。

 

 

LeCun 還用之前經(jīng)常使用的蛋糕比喻來說明三者的關(guān)系,之前蛋糕胚代表的是無監(jiān)督學(xué)習(xí),現(xiàn)在則被換成自監(jiān)督學(xué)習(xí)。

 

 

Hinton 在自監(jiān)督學(xué)習(xí)領(lǐng)域探索了多年,LeCun 之前一直持懷疑態(tài)度,現(xiàn)在終于認(rèn)可了這個方向。

 

 

機器學(xué)習(xí)的未來不會是監(jiān)督學(xué)習(xí),當(dāng)然也不會純粹是強化學(xué)習(xí),它應(yīng)該是包含了深度模塊的自監(jiān)督學(xué)習(xí)。

 

 

那么下一個問題是,自監(jiān)督學(xué)習(xí)能夠產(chǎn)生一般的背景知識嗎?這里重點是模型需要推斷出背景知識,它需要從真實世界收集的背景知識推理出當(dāng)前它希望預(yù)測的任務(wù)。如下 LeCun 舉了一個例子,如果接收到一個自然語句,模型應(yīng)該推斷出當(dāng)前場景的各種背景知識。

 

 

對于基于模型的經(jīng)典最優(yōu)控制,我們可能需要初始化一個序列來模擬世界,并通過梯度下降調(diào)整控制序列來最優(yōu)化目標(biāo)函數(shù)。而目前我們可以通過強化學(xué)習(xí)的方式模擬世界,這些模型不僅需要預(yù)測下一個可能的動作,同時還需要預(yù)測一系列可能的未來。

 

 

接下來 Yann LeCun 介紹了使用對抗訓(xùn)練的視頻預(yù)測。他首先展示了預(yù)測無監(jiān)督學(xué)習(xí)。人類是很擅長預(yù)測的,然而機器很難預(yù)測未來會發(fā)生什么。近年來的研究中出現(xiàn)了一些使用「對抗訓(xùn)練」的成功案例,但是仍有很長的路要走。Yann LeCun 用一個紐約公寓的視頻示例進行舉例說明。

 

 

語義分割空間的視頻預(yù)測

這部分 Yann LeCun 介紹了當(dāng)前語義分割預(yù)測的現(xiàn)狀。

 

 

Latent-Variable Forward Models for Planning and Learning Policies

下圖展示了用于推斷動作和潛在變量的模型架構(gòu)。

 

 

然后 Yann Lecun 展示了一個現(xiàn)實世界的真實案例。

 

 

 

 

 

 

 

 

最后,Yann Lecun 總結(jié)了技術(shù)和科學(xué)之間的互相驅(qū)動和促進,如望遠(yuǎn)鏡和光學(xué)、蒸汽機和熱力學(xué)、計算機和計算機科學(xué)等。并提出了疑問:什么相當(dāng)于智能的「熱力學(xué)」?

人工智能和自然智能背后是否存在底層原則?

學(xué)習(xí)背后是否存在簡單的準(zhǔn)則?

發(fā)腦是否是進化產(chǎn)生的大量「hack」的集合?

 

 

視頻鏈接:https://www.facebook.com/ijcaiecai18/videos/2184672041673770/

標(biāo)簽: Google 谷歌 數(shù)據(jù)預(yù)測 搜索 網(wǎng)絡(luò)

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:TensorFlow重大升級:自動將Python代碼轉(zhuǎn)為TF Graph,大幅簡化動態(tài)圖處理!

下一篇:如何用3個月零基礎(chǔ)入門機器學(xué)習(xí)?