中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

Yann LeCun在IJCAI 2018上的演講:學(xué)習(xí)世界模型,通向AI的下一步

2018-07-20    來源:raincent

容器云強(qiáng)勢(shì)上線!快速搭建集群,上萬(wàn)Linux鏡像隨意使用
人工智能頂會(huì) IJCAI 2018 的主要議程于昨日在瑞典首都斯德哥爾摩開始。昨天上午,F(xiàn)acebook 首席人工智能科學(xué)家、紐約大學(xué)教授 Yann LeCun 在會(huì)上發(fā)表了近一個(gè)小時(shí),以《Learning World Models: the Next Step towards AI》為主題的演講,引起了人們的廣泛關(guān)注。本文將對(duì) LeCun 的演講進(jìn)行簡(jiǎn)要介紹。

完整演講視頻:

 

 

Yann LeCun 開場(chǎng)介紹說,當(dāng)前幾乎所有的機(jī)器學(xué)習(xí)從業(yè)者在實(shí)踐中使用的都是監(jiān)督式學(xué)習(xí):向機(jī)器展示大量的樣本,然后告訴機(jī)器正確的答案與內(nèi)部參數(shù),然后就能做圖像識(shí)別之類的任務(wù)。而過去幾年,監(jiān)督式學(xué)習(xí)有了極大的成功,應(yīng)用也非常廣泛。下圖對(duì)比了傳統(tǒng)機(jī)器學(xué)習(xí)與深度學(xué)習(xí)各自的特點(diǎn)。

 

 

深度學(xué)習(xí)的演講回溯到 20 世紀(jì) 50 年代,當(dāng)時(shí) AI 社區(qū)嘗試構(gòu)建神經(jīng)網(wǎng)絡(luò)。建立這樣略為復(fù)雜的系統(tǒng),你需要兩個(gè)基礎(chǔ)的運(yùn)算:線性的加權(quán)和與非線性的激活函數(shù)。這里,Yann LeCun 回顧了他們?cè)?80 年代末期提出的用來識(shí)別數(shù)字的卷積神經(jīng)網(wǎng)絡(luò) LeNet5,從最初的識(shí)別單個(gè)目標(biāo)發(fā)展到了識(shí)別多個(gè)目標(biāo)。

 

 

很快,他們就建立了一個(gè)識(shí)別手寫文件的系統(tǒng)。在 1995 年,他們?cè)?AT&T 完成了一個(gè)商業(yè)系統(tǒng)來讀取支票賬號(hào)。經(jīng)歷了如下圖展示的過程。Yann LeCun 介紹了,這是上一波人工智能浪潮下的極大成功示例。之后,人們就對(duì)神經(jīng)網(wǎng)絡(luò)的研究失去了興趣。一方面是準(zhǔn)確率的原因,還因?yàn)楹芏囝I(lǐng)域當(dāng)時(shí)沒有足夠多的數(shù)據(jù)來訓(xùn)練學(xué)習(xí)系統(tǒng)。

接著,Yann LeCun 介紹說,實(shí)際上在 1996-2001 年這段時(shí)間內(nèi),他并沒有研究機(jī)器學(xué)習(xí),而是在研究其它東西,尤其是圖像壓縮。

 

 

下圖是在 21 世紀(jì)初加入 NYU 之后用模仿學(xué)習(xí)做的研究。這個(gè)研究激發(fā)了 DARPA 的 LAGR 項(xiàng)目。

 

 

Yann LeCun 隨后回顧了卷積神經(jīng)網(wǎng)絡(luò)在不同任務(wù)中的應(yīng)用,包括用于自動(dòng)駕駛汽車的目標(biāo)檢測(cè)與語(yǔ)義分割等。這些基于視覺的任務(wù)絕大部分都需要卷積神經(jīng)網(wǎng)絡(luò)的支持,當(dāng)然也離不開并行計(jì)算設(shè)備的支持。

 

 

第一個(gè)得到廣泛關(guān)注與應(yīng)用的卷積神經(jīng)網(wǎng)絡(luò)是 2012 年提出來的 AlexNet,它相比于 LeNet-5 最大的特點(diǎn)是使用更深的卷積網(wǎng)絡(luò)和 GPU 進(jìn)行并行運(yùn)算。AlexNet 還應(yīng)用了非常多的方法來提升模型性能,包括第一次使用 ReLU 非線性激活函數(shù)、第一次使用 Dropout 以及大量數(shù)據(jù)增強(qiáng)而實(shí)現(xiàn)網(wǎng)絡(luò)的正則化。除此之外,AlexNet 還使用了帶動(dòng)量的隨機(jī)梯度下降、L2 權(quán)重衰減以及 CNN 的集成方法,這些方法現(xiàn)在都成為了卷積網(wǎng)絡(luò)不可或缺的模塊。

 

 

隨后在 ImageNet 挑戰(zhàn)賽中,卷積網(wǎng)絡(luò)的深度與性能都逐年提升。從 12 年到 16 年,參賽者使用的卷積神經(jīng)網(wǎng)絡(luò)不斷加深,錯(cuò)誤率也逐年下降。

如下所示,牛津大學(xué) 2014 年提出了另一種深度卷積網(wǎng)絡(luò) VGG-Net,與 AlexNet 相比,它的卷積核更小,層級(jí)更深。谷歌同年提出了 GoogLeNet(或 Inception-v1),該網(wǎng)絡(luò)共有 22 層,且包含了非常高效的 Inception 模塊。后來到了 15 年,何愷明等人提出的深度殘差網(wǎng)絡(luò)驟然將網(wǎng)絡(luò)深度由十幾二十層提升到 152 層,且性能大幅提高。

此外,去年提出的 DenseNet 進(jìn)一步解決了 ResNet 遺留下的梯度問題,并獲得了 CVPR 2017 的最佳論文。DenseNet 的目標(biāo)是提升網(wǎng)絡(luò)層級(jí)間信息流與梯度流的效率,并提高參數(shù)效率。它也如同 ResNet 那樣連接前層特征圖與后層特征圖,但 DenseNet 并不會(huì)像 ResNet 那樣對(duì)兩個(gè)特征圖求和,而是直接將特征圖按深度相互拼接在一起。

 

 

那么為什么卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺任務(wù)上如此高效?Yann LeCun 隨后就對(duì)深度卷積網(wǎng)絡(luò)的表征方式做了介紹。他表明對(duì)于圖像數(shù)據(jù)來說,數(shù)據(jù)的信息與結(jié)構(gòu)在語(yǔ)義層面上都是組合性的,整體圖像的語(yǔ)義是由局部抽象特征組合而成。因此深度網(wǎng)絡(luò)這種層級(jí)表征結(jié)構(gòu)能依次從簡(jiǎn)單特征組合成復(fù)雜的抽象特征,如下我們可以用線段等簡(jiǎn)單特征組合成簡(jiǎn)單形狀,再進(jìn)一步組合成圖像各部位的特征。

 

 

卷積神經(jīng)網(wǎng)絡(luò)在目標(biāo)識(shí)別、目標(biāo)檢測(cè)、語(yǔ)義分割和圖像描述等領(lǐng)域都有非常多的應(yīng)用,而這些實(shí)現(xiàn)很多都依賴于深度學(xué)習(xí)框架。LeCun 隨后重點(diǎn)介紹了 PyTorch 與 Detectron,其中 PyTorch 因?yàn)椴捎昧藙?dòng)態(tài)計(jì)算圖而受到了廣泛的關(guān)注,它也是當(dāng)前發(fā)展最快的框架之一。

如下所示,F(xiàn)acebook AI 研究院開源的 Detectron 基本上是業(yè)內(nèi)最佳水平的目標(biāo)檢測(cè)平臺(tái)。據(jù) LeCun 介紹,該項(xiàng)目自 2016 年 7 月啟動(dòng),構(gòu)建于 Caffe2 之上,目前支持目標(biāo)檢測(cè)與語(yǔ)義分割算法,其中包括 Mask R-CNN(何愷明的研究,ICCV 2017 最佳論文)和 Focal Loss for Dense Object Detection(ICCV 2017 最佳學(xué)生論文)等優(yōu)秀的模型。

 

 

最后,作為對(duì)卷積神經(jīng)網(wǎng)絡(luò)的總結(jié),LeCun 帶我們回顧了卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用,包括醫(yī)療影像分析、自動(dòng)駕駛、機(jī)器翻譯、文本理解、視頻游戲和其它學(xué)科研究。

 

 

Yann LeCun 談到當(dāng)前深度學(xué)習(xí)缺乏推理能力,因此未來的一個(gè)重點(diǎn)發(fā)展方向就是深度學(xué)習(xí)和推理的結(jié)合。

 

 

人們已經(jīng)在多個(gè)方向上進(jìn)行嘗試。例如,在網(wǎng)絡(luò)中增加記憶增強(qiáng)模塊,典型的工作在下圖中列出,這是實(shí)現(xiàn)推理的第一步。在對(duì)話模型中,由于對(duì)話的輪換和非連續(xù)的特點(diǎn),通過增強(qiáng)記憶,有助于預(yù)測(cè)能力的提高,進(jìn)而能實(shí)現(xiàn)長(zhǎng)期而有效的對(duì)話。

 

 

為什么要強(qiáng)調(diào)記憶建模的重要性呢?在強(qiáng)化學(xué)習(xí)中,無(wú)模型的強(qiáng)化學(xué)習(xí)訓(xùn)練需要大量的嘗試才能學(xué)會(huì)一項(xiàng)任務(wù)。

 

 

因此此類方法在游戲中表現(xiàn)良好,如 FAIR、DeepMind、OpenAI 等之前都已在許多游戲上實(shí)現(xiàn)接近甚至超越人類的 AI 系統(tǒng),但這些系統(tǒng)并沒有達(dá)到現(xiàn)實(shí)應(yīng)用的水平。

 

 

因?yàn)楝F(xiàn)實(shí)環(huán)境遠(yuǎn)遠(yuǎn)比游戲中的環(huán)境要復(fù)雜得多,無(wú)論是變量復(fù)雜度還是不確定性方面,對(duì)此,無(wú)模型的強(qiáng)化學(xué)習(xí)系統(tǒng)面對(duì)的探索空間是相當(dāng)巨大的。而且,不像 AlphaGo 那樣可以在計(jì)算機(jī)上模擬成千上萬(wàn)次比賽,現(xiàn)實(shí)世界環(huán)境是無(wú)法被「加速」的,有些試驗(yàn)還涉及很大的風(fēng)險(xiǎn),這也大大限制了系統(tǒng)的訓(xùn)練資源。

 

 

那么目前來看,人工智能到底缺少了什么?監(jiān)督學(xué)習(xí)需要太多的樣本,強(qiáng)化學(xué)習(xí)需要太多的嘗試,AI 系統(tǒng)缺乏常識(shí)。

 

 

Yann LeCun 總結(jié)了一下這兩類系統(tǒng)的缺點(diǎn):缺乏獨(dú)立于任務(wù)的背景知識(shí);缺乏常識(shí);缺乏預(yù)測(cè)行為后果的能力;缺乏長(zhǎng)期規(guī)劃和推理的能力。簡(jiǎn)言之就是:沒有世界模型;沒有關(guān)于世界運(yùn)行的通用背景知識(shí)。用更一般的語(yǔ)言來講就是,目前的機(jī)器無(wú)法在心里想象(表征)世界,而只是像僵尸一樣被氣味驅(qū)使著(無(wú)意識(shí)地)行動(dòng)。記憶建模只是一方面,建立完整的世界表征才是我們真正需要的。

 

 

在現(xiàn)實(shí)應(yīng)用層面,Yann LeCun 總結(jié)道,利用現(xiàn)有的監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)技術(shù),我們可以在自駕汽車、醫(yī)療圖像分析、個(gè)性化醫(yī)療、語(yǔ)言翻譯、聊天機(jī)器人(有用但還很蠢)、信息搜索、信息檢索、信息過濾以及其它領(lǐng)域中取得不錯(cuò)的進(jìn)展,但仍然無(wú)法實(shí)現(xiàn)常識(shí)推理、智能個(gè)人助理、智能聊天機(jī)器人、家庭機(jī)器人以及通用人工智能等。

 

 

然后,Yann LeCun 指出我們可以從嬰兒的學(xué)習(xí)方式上獲得啟發(fā)。嬰兒對(duì)外部世界的概念學(xué)習(xí)大部分是通過觀察,僅有小部分是通過交互,而視覺比觸覺、體感等能捕獲更多、更完整的外部信息。那么機(jī)器如何做到這一點(diǎn)?其實(shí),這種情況不止發(fā)生在人身上,動(dòng)物也是如此。LeCun 隨后展示了一幅嬰兒和大猩猩觀看魔術(shù)的圖,并解釋說,當(dāng)違反世界模型,也就是當(dāng)我們觀察到一些不尋常、與世界模型不匹配的東西時(shí),我們的注意力就會(huì)被調(diào)動(dòng)(如嬰兒和大猩猩看到魔術(shù)表演會(huì)大笑就是因?yàn)槭澜缒P捅贿`反了)。

 

 

 

 

接下來,LeCun 解釋了突破強(qiáng)化學(xué)習(xí)現(xiàn)狀的解決方法:自監(jiān)督學(xué)習(xí),它能通過輸入的某一部分預(yù)測(cè)其它部分。在空間層面上包括圖像補(bǔ)全、圖像變換等,在時(shí)間層面上包括時(shí)序數(shù)據(jù)預(yù)測(cè)、視頻幀預(yù)測(cè)等。

 

 

Yann LeCun 總結(jié)了三類學(xué)習(xí)范式,分別是強(qiáng)化學(xué)習(xí)、監(jiān)督學(xué)習(xí)和自監(jiān)督學(xué)習(xí),相比于強(qiáng)化學(xué)習(xí)和監(jiān)督學(xué)習(xí),自監(jiān)督學(xué)習(xí)將輸入和輸出當(dāng)成完整的整體。它們的區(qū)別和聯(lián)系在于反饋信息的逐漸增多,模型表征復(fù)雜度、適用任務(wù)類型也大幅增加,同時(shí)任務(wù)中涉及的人類工程比重也大大減少,意味著自動(dòng)化程度的增加。

 

 

LeCun 還用之前經(jīng)常使用的蛋糕比喻來說明三者的關(guān)系,之前蛋糕胚代表的是無(wú)監(jiān)督學(xué)習(xí),現(xiàn)在則被換成自監(jiān)督學(xué)習(xí)。

 

 

Hinton 在自監(jiān)督學(xué)習(xí)領(lǐng)域探索了多年,LeCun 之前一直持懷疑態(tài)度,現(xiàn)在終于認(rèn)可了這個(gè)方向。

 

 

機(jī)器學(xué)習(xí)的未來不會(huì)是監(jiān)督學(xué)習(xí),當(dāng)然也不會(huì)純粹是強(qiáng)化學(xué)習(xí),它應(yīng)該是包含了深度模塊的自監(jiān)督學(xué)習(xí)。

 

 

那么下一個(gè)問題是,自監(jiān)督學(xué)習(xí)能夠產(chǎn)生一般的背景知識(shí)嗎?這里重點(diǎn)是模型需要推斷出背景知識(shí),它需要從真實(shí)世界收集的背景知識(shí)推理出當(dāng)前它希望預(yù)測(cè)的任務(wù)。如下 LeCun 舉了一個(gè)例子,如果接收到一個(gè)自然語(yǔ)句,模型應(yīng)該推斷出當(dāng)前場(chǎng)景的各種背景知識(shí)。

 

 

對(duì)于基于模型的經(jīng)典最優(yōu)控制,我們可能需要初始化一個(gè)序列來模擬世界,并通過梯度下降調(diào)整控制序列來最優(yōu)化目標(biāo)函數(shù)。而目前我們可以通過強(qiáng)化學(xué)習(xí)的方式模擬世界,這些模型不僅需要預(yù)測(cè)下一個(gè)可能的動(dòng)作,同時(shí)還需要預(yù)測(cè)一系列可能的未來。

 

 

接下來 Yann LeCun 介紹了使用對(duì)抗訓(xùn)練的視頻預(yù)測(cè)。他首先展示了預(yù)測(cè)無(wú)監(jiān)督學(xué)習(xí)。人類是很擅長(zhǎng)預(yù)測(cè)的,然而機(jī)器很難預(yù)測(cè)未來會(huì)發(fā)生什么。近年來的研究中出現(xiàn)了一些使用「對(duì)抗訓(xùn)練」的成功案例,但是仍有很長(zhǎng)的路要走。Yann LeCun 用一個(gè)紐約公寓的視頻示例進(jìn)行舉例說明。

 

 

語(yǔ)義分割空間的視頻預(yù)測(cè)

這部分 Yann LeCun 介紹了當(dāng)前語(yǔ)義分割預(yù)測(cè)的現(xiàn)狀。

 

 

Latent-Variable Forward Models for Planning and Learning Policies

下圖展示了用于推斷動(dòng)作和潛在變量的模型架構(gòu)。

 

 

然后 Yann Lecun 展示了一個(gè)現(xiàn)實(shí)世界的真實(shí)案例。

 

 

 

 

 

 

 

 

最后,Yann Lecun 總結(jié)了技術(shù)和科學(xué)之間的互相驅(qū)動(dòng)和促進(jìn),如望遠(yuǎn)鏡和光學(xué)、蒸汽機(jī)和熱力學(xué)、計(jì)算機(jī)和計(jì)算機(jī)科學(xué)等。并提出了疑問:什么相當(dāng)于智能的「熱力學(xué)」?

人工智能和自然智能背后是否存在底層原則?

學(xué)習(xí)背后是否存在簡(jiǎn)單的準(zhǔn)則?

發(fā)腦是否是進(jìn)化產(chǎn)生的大量「hack」的集合?

 

 

視頻鏈接:https://www.facebook.com/ijcaiecai18/videos/2184672041673770/

標(biāo)簽: Google 谷歌 數(shù)據(jù)預(yù)測(cè) 搜索 網(wǎng)絡(luò)

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請(qǐng)與原作者聯(lián)系。

上一篇:TensorFlow重大升級(jí):自動(dòng)將Python代碼轉(zhuǎn)為TF Graph,大幅簡(jiǎn)化動(dòng)態(tài)圖處理!

下一篇:如何用3個(gè)月零基礎(chǔ)入門機(jī)器學(xué)習(xí)?