中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

Yann LeCun、吳恩達等的2019年AI趨勢預(yù)測

2019-01-10    來源:raincent

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

本文介紹了 Yann LeCun、吳恩達、Hilary Mason 和 Rumman Chowdhury 對 2018 AI 領(lǐng)域的總結(jié)以及對 2019 年發(fā)展趨勢的預(yù)測。

 

從左到右依次是:埃森哲 Responsible AI 全球計劃負(fù)責(zé)人 Rumman Chowdhury、Cloudera 機器學(xué)習(xí)負(fù)責(zé)人 Hilary Mason、Facebook AI 研究院創(chuàng)始人 Yann LeCun、谷歌大腦聯(lián)合創(chuàng)始人吳恩達。

 

人工智能是孤注一擲的選擇,它要么拯救世界,要么摧毀世界。

近日,VentureBeat 與一些專家進行了對話,包括谷歌大腦聯(lián)合創(chuàng)始人吳恩達、Cloudera 機器學(xué)習(xí)負(fù)責(zé)人 & Fast Forward 實驗室創(chuàng)始人 Hilary Mason、Facebook AI 研究院負(fù)責(zé)人 Yann LeCun 和埃森哲 Responsible AI 全球計劃負(fù)責(zé)人 Rumman Chowdhury。他們講述了自己心中的 2018 年重要里程碑,以及對 2019 年的展望。

其中一些專家說道,他們很欣慰關(guān)于 AI 終結(jié)者說法越來越少,更多的人開始理解 AI 能做與不能做的事。但是專家們還強調(diào),該領(lǐng)域的計算機和數(shù)據(jù)科學(xué)家仍然需要在推動人工智能發(fā)展的過程中,繼續(xù)采取負(fù)責(zé)任的倫理觀。

Rumman Chowdhury 博士

 

 

Chowdhury 博士是埃森哲應(yīng)用智能服務(wù)部門的董事總經(jīng)理,也是 Responsible AI 的全球領(lǐng)導(dǎo)者。2017 年,她被 BBC 列入「全球最有影響力的 100 位女性」名單。

Chowdhury 表示,她很高興看到 2018 年公眾對人工智能的能力和局限性的理解有所提高,并發(fā)現(xiàn)人們對人工智能威脅的討論也更加均衡——不再局限于電影《終結(jié)者》中機器將統(tǒng)治人類世界的恐懼。「隨之而來的是,越來越多的人開始關(guān)注隱私和安全問題,以及人工智能在塑造我們以及后代方面所扮演的角色!

然而,Chowdhury 認(rèn)為,公眾對于 AI 的這些認(rèn)知還不是最重要的。更重要的是,在 2019 年,她希望看到更多的人利用教育資源來理解 AI 系統(tǒng),并能夠利用自己的智慧質(zhì)疑 AI 所做的決定。

AI 生態(tài)系統(tǒng)中的科技公司和人們開始考慮其工作的倫理影響,這讓她感到驚喜。但她希望 AI 社區(qū)更進一步,能夠「從道德提醒到實際行動。」

「至于倫理和 AI 領(lǐng)域——除了電車難題,我希望大家能夠深入研究 AI 將帶來的難題——那些還沒有明確答案的問題。如何在人工智能與物聯(lián)網(wǎng)監(jiān)控之間取得『正確』的平衡?這種監(jiān)控必須安全,但不應(yīng)該強化現(xiàn)有種族歧視的懲罰性監(jiān)控狀態(tài)。我們應(yīng)該如何調(diào)整先進技術(shù)的收益再分配,從而不會進一步加大貧富差距?應(yīng)該將孩子暴露在什么程度的 AI 環(huán)境中才會讓他們成為『AI 土著』而不被操控或同質(zhì)化?我們?nèi)绾斡?AI 擴展教育并將其自動化,但仍讓孩子的創(chuàng)造力和獨立思考能力得到充分發(fā)展?」她問道。

2019 年,Chowdhury 預(yù)計全球?qū)⒂懈嗟恼畬夹g(shù)進行審查和監(jiān)管。

「全球科技巨頭所擁有的 AI 及其力量引發(fā)了很多關(guān)于如何監(jiān)管產(chǎn)業(yè)和技術(shù)的問題。2019 年,我們要開始想辦法解決這些問題——當(dāng)一種技術(shù)是多用途工具且結(jié)果受特定環(huán)境影響時,你如何監(jiān)管?如何建立監(jiān)管條例并確保它不會抑制創(chuàng)新或偏袒大公司(可以承擔(dān)合規(guī)成本)而非小公司?我們要監(jiān)管到什么地步?國際,國家還是地區(qū)?」

她還希望看到人工智能在地緣政治事務(wù)中繼續(xù)發(fā)揮其作用。

「AI 不只是科技,它還是經(jīng)濟、社會的塑造者。我們在這項技術(shù)中反思、擴展和實施我們的價值。我們需要加深對技術(shù)及其影響的理解!挂龅竭@一點,我們對 AI 行業(yè)的理解不能再局限于常見觀念。

「我希望監(jiān)管者、技術(shù)專家和研究人員意識到,AI 競賽不僅僅是算力和技術(shù)敏銳度,就像冷戰(zhàn)不僅僅是核力量一樣。我們應(yīng)該以更公平、公正、平等的方式去重建這個世界,盡管這樣的機會很稀有。逝者如斯夫,不舍晝夜。不要浪費時間!

從消費者的角度來看,她認(rèn)為 2019 年將會有更多的家庭使用人工智能。很多人會更加習(xí)慣使用如 Google Home 和 Amazon Echo 這樣的智能語音助手以及其它智能設(shè)備。因此,她也很期待本月將于拉斯維加斯舉辦的國際消費者電子展(Consumer Electronics Show,CES)上是否會有什么有趣的東西出現(xiàn)。通過這個展會,人工智能可能會進一步融入人們的日常生活。

「我想我們可能都在等一位機器人管家的出現(xiàn)!顾f。

吳恩達

 

 

吳恩達是斯坦福大學(xué)計算機科學(xué)系教授、谷歌大腦聯(lián)合創(chuàng)始人、Landing AI 創(chuàng)始人(該公司旨在幫助企業(yè)在業(yè)務(wù)流程中融入 AI)。此外,他還是很多流行的在線機器學(xué)習(xí)課程的講師,他還創(chuàng)辦了 deeplearning.ai,并寫了一本書《Deep Learning Yearning》。2017 年,他從百度離職,后創(chuàng)辦了人工智能創(chuàng)業(yè)投資機構(gòu) AI Fund,他也是自動駕駛汽車公司 Drive.ai 的董事會成員。

吳恩達認(rèn)為 2019 年有望出現(xiàn)進展或改變的地方是:AI 將應(yīng)用于技術(shù)或軟件公司以外。他認(rèn)為,AI 最大的待開發(fā)潛力在軟件行業(yè)之外,并引用了麥肯錫報告:到 2030 年,它將會創(chuàng)造大約 13 萬億美元的 GDP 增長。

「我認(rèn)為 2019 年在軟件業(yè)之外的 AI 應(yīng)用方面會發(fā)生很多故事。在行業(yè)中,我們已經(jīng)幫助谷歌、百度、Facebook、微軟等企業(yè)做了很多工作,而 Square、Airbnb、Pinterest 這樣的公司也開始利用 AI。我認(rèn)為下一波創(chuàng)造價值的浪潮將出現(xiàn)在制造業(yè)公司、農(nóng)業(yè)設(shè)備公司或醫(yī)療企業(yè),這些企業(yè)可能會利用 AI 來開發(fā)多項解決方案幫助其發(fā)展業(yè)務(wù)。

和 Chowdhury 一樣,吳恩達也對 2018 年人們對 AI 能力的理解感到驚訝。

「我嘗試審慎地列舉一些我認(rèn)為對實際應(yīng)用非常重要的領(lǐng)域。我認(rèn)為 AI 的實際應(yīng)用存在很多障礙,而在這些問題的有些方面有很大進展。」

對于 2019 年,吳恩達希望看到 AI/ML 研究中兩個特定領(lǐng)域的進展。一個是 AI 能在數(shù)據(jù)量少的情況下獲得較高的準(zhǔn)確率,即「few shot learning」。

「我認(rèn)為深度學(xué)習(xí)發(fā)展的第一波浪潮是擁有海量數(shù)據(jù)的大公司訓(xùn)練非常大的神經(jīng)網(wǎng)絡(luò)。如果你想要構(gòu)建語音識別系統(tǒng),在 10 萬小時的數(shù)據(jù)上進行訓(xùn)練。想要訓(xùn)練機器翻譯系統(tǒng)的話,就在大量平行語料庫的句對上進行訓(xùn)練,從而創(chuàng)造出大量突破性的結(jié)果,F(xiàn)在,我看到在小數(shù)據(jù)集上出現(xiàn)越來越多的成果,即使你只有 1000 張圖像,你也可以嘗試做出點什么。」

另一個是計算機視覺領(lǐng)域的進展,即「generalized visibility」。一個計算機視覺系統(tǒng)可能在使用斯坦福大學(xué)的高端 X 光機拍攝圖像時效果很好。很多該領(lǐng)域的先進企業(yè)和研究人員已經(jīng)創(chuàng)造出超過人類放射科醫(yī)生的系統(tǒng),但它們并不是很靈活。

「但是如果你將訓(xùn)練好的模型應(yīng)用到低端 X 光機或不同醫(yī)院拍攝的 X 光片上(圖像比較模糊,或者角度有偏差),那么人類放射科醫(yī)生的表現(xiàn)會比現(xiàn)在的學(xué)習(xí)算法泛化性能好得多。因此我認(rèn)為有趣的研究是嘗試改善學(xué)習(xí)算法在新場景中的泛化性!

Yann LeCun

 

 

Yann LeCun 是紐約大學(xué)教授、Facebook 首席 AI 科學(xué)家、Facebook AI 研究院(FAIR)創(chuàng)始人。

LeCun 認(rèn)為 FAIR 執(zhí)行的開源策略幫助推動其他大型技術(shù)公司的開源之路,他認(rèn)為開源可以促進 AI 領(lǐng)域的發(fā)展。

「開源促進整個領(lǐng)域更快地發(fā)展,因為更多的人可以就研究進行溝通交流,這會產(chǎn)生非常大的影響。今天大家所看到的 AI 領(lǐng)域發(fā)展速度主要是因為更多人更加迅捷、高效地互相交流,同時做了更多的開放性研究。」

關(guān)于倫理,LeCun 很高興地看到大家能夠考慮研究的倫理影響以及帶有偏見的決策的風(fēng)險性。

「人們應(yīng)該注意倫理問題,這在現(xiàn)在已經(jīng)成為共識。而兩三年前情況完全不同!

LeCun 稱,他認(rèn)為 AI 領(lǐng)域的倫理和偏見不是需要立即采取行動的大問題,但是人們應(yīng)該為此做好準(zhǔn)備。

「我認(rèn)為……有一些亟待解決的關(guān)乎生死的大問題,但是倫理和偏見問題終有一天會到來,我們需要……理解這些問題,并在它們發(fā)生之前防患于未然!

和吳恩達一樣,LeCun 想看到更多靈活、魯棒的 AI 系統(tǒng),它們不需要特定質(zhì)量的輸入數(shù)據(jù)或固定條件也能獲得準(zhǔn)確的輸出。

LeCun 表示,研究者已經(jīng)可以很好地利用深度學(xué)習(xí)管理感知,但缺乏對完整 AI 系統(tǒng)整體架構(gòu)的理解。

他認(rèn)為,教會機器通過觀察世界來學(xué)習(xí)需要自監(jiān)督學(xué)習(xí)或基于模型的強化學(xué)習(xí)。

「不同的人對此的稱呼不同,但本質(zhì)上人類嬰兒和動物通過觀察和分辨大量關(guān)于世界的背景信息來學(xué)習(xí)世界的運作原理,我們不知道如何讓機器學(xué)會這么做,而這是一項重要挑戰(zhàn)。AI 和機器真正取得進步的一個重要標(biāo)志是具備常識,以及虛擬助手可以更流暢自然地談?wù)摳嘣掝}、參與更多討論!

對于幫助 Facebook 內(nèi)部運營的應(yīng)用,LeCun 稱自監(jiān)督學(xué)習(xí)的巨大進步以及僅靠少量數(shù)據(jù)也能返回準(zhǔn)確結(jié)果的 AI 系統(tǒng)將非常重要。

「在解決整個問題的過程中,我們希望能夠找到一些方式來減少任意任務(wù)所必需的數(shù)據(jù)量(如機器翻譯或圖像識別任務(wù)等),我們在這個方向已經(jīng)有所進展。我們已經(jīng)通過弱監(jiān)督或自監(jiān)督學(xué)習(xí)對 Facebook 所用的機器翻譯和圖像識別系統(tǒng)帶來了好的影響。所以這些并不是長期的,它們在短期內(nèi)就可以帶來效果!

LeCun 希望未來能夠看到 AI 在建立因果關(guān)系方面有所進步。這一能力不只是通過觀察習(xí)得,而需要對事物有實際的理解。例如,如果有人打傘,那就有可能下雨了。

「這非常重要,因為如果你想讓機器通過觀察學(xué)得世界模型,那么它必須能夠了解它對改變世界狀態(tài)的影響以及有些事情不能做。如果你在一個房間里,面前有一張桌子,桌上有一瓶水,那么你知道你推一下水瓶,它就會移動,你不會想去移動桌子,因為桌子又大又重,這樣的事情都與因果關(guān)系有關(guān)!

Hilary Mason

 

 

2017 年 Cloudera 收購 Fast Forward 實驗室之后,Hilary Mason 成為 Cloudera 的機器學(xué)習(xí)負(fù)責(zé)人。雖然已經(jīng)被并入 Cloudera,但 Fast Forward Labs 還在繼續(xù)運營,為用戶提供應(yīng)用機器學(xué)習(xí)報告和建議,幫助他們看到未來半年到兩年的發(fā)展方向。

2018 年令 Mason 感到驚喜的人工智能進展與多任務(wù)學(xué)習(xí)有關(guān),利用這種技術(shù)可以訓(xùn)練單個神經(jīng)網(wǎng)絡(luò)在推理時應(yīng)用多個標(biāo)簽,如在一幅圖像中看到的多個對象。

Fast Forward 實驗室為用戶提供的建議也包含 AI 系統(tǒng)的倫理影響。Mason 越發(fā)意識到創(chuàng)建 AI 倫理框架的必要性。

「自從五年前 Fast Forward 創(chuàng)立以來,我們的每一份報告都包含倫理內(nèi)容,但直到 2018 年,人們才真正開始重視這個問題。我認(rèn)為,2019 年我們將開始看到結(jié)果,以及針對對此熟視無睹的公司或個人的問責(zé)機制!筂ason 說道!赣幸稽c我沒說清楚,就是我希望數(shù)據(jù)科學(xué)和 AI 的實踐應(yīng)該按某種方式演進,即科研人員和商界領(lǐng)袖都能在利用 AI 創(chuàng)造產(chǎn)品時將倫理、偏見以及這些產(chǎn)品的發(fā)展考慮在內(nèi),這在今天還不是慣例!

2019 年,更多 AI 系統(tǒng)將成為商業(yè)運營的一部分,Mason 希望產(chǎn)品經(jīng)理及主管可以為 AI 的前沿發(fā)展做出更多貢獻,因為他們的職位提供了最大的便利。

「顯然,對整個產(chǎn)品了如指掌而且懂商業(yè)的人知道什么樣的產(chǎn)品有價值,他們處在可以決定投資方向的最佳職位。如果讓我預(yù)測,我認(rèn)為那些使用電子表格一類的東西進行簡單建模的人會變得非常低能,他們很快也會在發(fā)現(xiàn)自己產(chǎn)品中的 AI 機會方面變得非常低能!

AI 民主化,或者說將 AI 擴展到企業(yè)數(shù)據(jù)科學(xué)團隊以外的部門,是一些企業(yè)所強調(diào)的,包括 Kubeflow Pipelines 和 AI Hub 等谷歌云 AI 產(chǎn)品,以及 CI&T 公司為確保人工智能系統(tǒng)在公司內(nèi)部得到實際利用所提出的建議。

Mason 還表示,越來越多的公司將需要構(gòu)建管理多個 AI 系統(tǒng)的結(jié)構(gòu)。

與之前描述運維人員所面臨的挑戰(zhàn)類似,Mason 說道,可以使用手動部署的自定義腳本來管理單個系統(tǒng),cron 作業(yè)可以管理幾十個系統(tǒng)。但當(dāng)你在一個具有安全、管理和風(fēng)險要求的企業(yè)中管理數(shù)十或數(shù)百個系統(tǒng)時,你需要專業(yè)而強大的工具。

企業(yè)正從招攬有能力或才華的人才轉(zhuǎn)向系統(tǒng)地追求機器學(xué)習(xí)和 AI 機會。

由于 Cloudera 最近推出了基于容器的機器學(xué)習(xí)平臺,所以對 Mason 來說,強調(diào)部署 AI 所需的容器是有意義的。她認(rèn)為,這一趨勢將在未來幾年持續(xù)下去,因此企業(yè)可以在本地 AI 和云端 AI 部署之間做出選擇。

最后,Mason 認(rèn)為 AI 的商業(yè)化將會持續(xù)下去,而且將涉及整個行業(yè)的慣例,而不是單個公司。

「我想我們將會看到 AI 專業(yè)實踐的繼續(xù)發(fā)展。現(xiàn)在,如果你在一家公司做數(shù)據(jù)科學(xué)家或機器學(xué)習(xí)工程師,然后你跳槽去另一家公司,你的工作將會完全不同:不同的工具、不同的預(yù)期、不同的報告結(jié)構(gòu)。但我想我們還是會看到一致性!顾f。

參考鏈接:https://venturebeat.com/2019/01/02/ai-predictions-for-2019-from-yann-lecun-hilary-mason-andrew-ng-and-rumman-chowdhury/

標(biāo)簽: Google 安全 谷歌 腳本 網(wǎng)絡(luò)

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:Submarine:在Apache Hadoop中運行深度學(xué)習(xí)框架

下一篇:人們需要了解正在快速發(fā)展的綠色數(shù)據(jù)中心行業(yè)