中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

TensorFlow的新生!

2019-04-06    來(lái)源:raincent

容器云強(qiáng)勢(shì)上線!快速搭建集群,上萬(wàn)Linux鏡像隨意使用

TensorFlow 2.0 帶來(lái)了大量改變。谷歌工程師 Cassie Kozyrkov 表示:之前的 TensorFlow 已死,而新版 TensorFlow 使它獲得重生。

如果你是 AI 鐵粉,但恰好沒(méi)看到這個(gè)重大新聞,這可能就像在地震來(lái)臨之際打了個(gè)盹。一切都將改變。

 

 

這是什么?TensorFlow 的 logo?還是回答真/假判斷題的字母?

去年我寫了 9 件關(guān)于 TensorFlow 你需要了解的事。但是你需要明確知道的一件事是:TensorFlow 2.0 到來(lái)了!

一場(chǎng)新革命!歡迎來(lái)到 TensorFlow 2.0。

這是一次顛覆性的改造。TensorFlow 2.0 的到來(lái)將對(duì)每個(gè)行業(yè)造成巨大的連鎖反應(yīng),等著瞧吧。如果你是 2019 年剛開(kāi)始用 TF 的新手,那你就特別幸運(yùn)了,因?yàn)槟氵x擇了最好的時(shí)間進(jìn)入 AI 的世界(如果你的舊教程中有「session」一詞,你可能想從頭開(kāi)始)。

簡(jiǎn)而言之:TensorFlow 已經(jīng)覆蓋了 Keras!請(qǐng)站穩(wěn)、扶好。

扎心的體驗(yàn)

我對(duì)很多人熱愛(ài) TensorFlow1.x 表示懷疑。這像是人工智能的工業(yè)車床,它對(duì)用戶友好。但充其量,你可能只因?yàn)樗芡瓿闪钊穗y以置信的 AI 任務(wù)而對(duì)它心懷感激而已。

 

 

如果你說(shuō) TensorFlow 1.x 很容易上手,那你可能會(huì)遭到別人的白眼。它陡峭的學(xué)習(xí)曲線使普通用戶望而卻步,而掌握了它就像你在失去腳趾的情況下登頂了珠峰。有趣嗎?不。

 

 

你不是一個(gè)人——每個(gè)人對(duì) TensorFlow 1.x 教程的感覺(jué)都是這樣的……

TensorFlow 的核心優(yōu)勢(shì)在于性能。它的設(shè)計(jì)是為了將模型能從研究遷移到大規(guī)模生產(chǎn)中,但是 TF 1.x 讓你心力交瘁。堅(jiān)持下去,你就能夠加入 ML 從業(yè)者的行列,他們用它做很多不可思議的事情,比如尋找新的行星、探索先進(jìn)的醫(yī)療手段。

然而,如此強(qiáng)大的工具掌握在如此少的人手中,真是可惜······不過(guò)現(xiàn)在,情況不同了。

 

 

不要擔(dān)心張量(tensor)是什么。以前它被稱作(廣義)矩陣。TensorFlow 這個(gè)名稱是對(duì) TF 非常擅長(zhǎng)執(zhí)行涉及多維數(shù)組(呃,矩陣)的分布式計(jì)算這一事實(shí)的肯定,這在 AI 領(lǐng)域是經(jīng)常出現(xiàn)的。(圖源:http://karlstratos.com/drawings/drawings.html)

可愛(ài)又迷人的角色——Keras

我們已經(jīng)介紹了扎心的「仙人球」,現(xiàn)在來(lái)談?wù)勀阏嬲胍獡肀У臇|西。我在工作的地方無(wú)意中聽(tīng)到一句話:「我想我真的很喜歡 Keras!

Keras 是一個(gè)逐層構(gòu)建模型的規(guī)范,它與多個(gè)機(jī)器學(xué)習(xí)框架一起工作(所以它不是 TF 的工具),但你可能知道從 TensorFlow 中可以訪問(wèn)其高級(jí) API tf.keras。

 

 

Keras 由純 Python 編寫而成,它總是以人為本——設(shè)計(jì)靈活、簡(jiǎn)單易學(xué)。

魚(yú)和熊掌能兼得嗎?

為什么我們必須在 Keras 的簡(jiǎn)單操作和傳統(tǒng) TensorFlow 的強(qiáng)大性能之間做出抉擇?怎么才能兼得呢?

 

 

魚(yú)和熊掌可以兼得——這就是 TensorFlow 2.0。

 

 

圖中是 TensorFlow 2.0。網(wǎng)址:https://www.tensorflow.org/overview,你可以在該網(wǎng)頁(yè)隨意嘗試這些橙色按鈕。

「我們認(rèn)為你不需要在簡(jiǎn)單的 API 和可擴(kuò)展的 API 之間做出選擇。我們想要一個(gè)更高級(jí)的 API,帶你直接從 MNIST 到天上繁星。」——Karmel Allison,Google TensorFlow 工程負(fù)責(zé)人

易用性革命

展望未來(lái),Keras 將成為 TensorFlow 的高級(jí) API,它已經(jīng)經(jīng)過(guò)了擴(kuò)展,因此你可以直接從 tf.keras 使用 TensorFlow 的所有高級(jí)功能。

所有 TensorFlow 都具備 Keras 的易用性,可在各種規(guī)模和各種硬件上使用。

 

 

在新版本中,所有你最討厭的 TensorFlow1.x 特性都沒(méi)有了。只是為了將兩個(gè)數(shù)字加在一起,就必須采用「暗黑」操作?再見(jiàn)。TensorFlow Sessions?再見(jiàn)。用一百萬(wàn)種方法做同樣的事情?再見(jiàn)。切換硬件或規(guī)模就要重寫代碼?再見(jiàn)。要寫一大堆的樣板文件?再見(jiàn)?膳碌臒o(wú)法執(zhí)行的錯(cuò)誤信息?再見(jiàn)。陡峭的學(xué)習(xí)曲線?再見(jiàn)。

TensorFlow 已成為過(guò)去時(shí),TensorFlow 2.0 萬(wàn)歲!

你覺(jué)得會(huì)有大陷阱是嗎?性能會(huì)變得糟糕?再猜!我們不會(huì)放棄性能。

TensorFlow 現(xiàn)在很可愛(ài),這是一個(gè)游戲規(guī)則改變者,因?yàn)樗馕吨覀冞@個(gè)時(shí)代最強(qiáng)大的工具之一撤掉了它的高墻。各行各業(yè)的技術(shù)愛(ài)好者都有了參與其中的權(quán)利,因?yàn)樾掳姹镜拈_(kāi)放讓研究人員不再頭疼,也讓那些使用以前版本而遭受「痛苦經(jīng)歷」的人能再度積極參與其中。

我們這個(gè)時(shí)代最強(qiáng)大的工具之一撤掉了它的高墻。

TensorFlow 2.0 歡迎所有人。

令人滿意的 Eager

在 TensorFlow 2.0 中,eager execution 是默認(rèn)模式。甚至在 eager context 中,你也可以利用圖,使調(diào)試和原型設(shè)計(jì)變得簡(jiǎn)單,而 TensorFlow 運(yùn)行時(shí)則負(fù)責(zé)底層性能和擴(kuò)展。

TensorFlow 1.x(聲明式編程)中的糾纏圖讓許多人摸不著頭腦,但現(xiàn)在,eager execution(命令式編程)讓大家擺脫了這個(gè)噩夢(mèng)。如果你之前沒(méi)學(xué)習(xí)過(guò)這部分,那就更好了。TF 2.0 對(duì)每個(gè)人來(lái)說(shuō)都是一個(gè)新的開(kāi)始。

簡(jiǎn)單到一個(gè)就足夠

許多 API 在 TensorFlow Keras 下得到了整合,所以現(xiàn)在你更容易知道什么時(shí)候應(yīng)該使用什么。例如,現(xiàn)在只需要使用一組優(yōu)化器和一組度量標(biāo)準(zhǔn)。需要設(shè)置多少層?你猜到了!一個(gè)!這就是 Keras 的風(fēng)格。

事實(shí)上,整個(gè)工具生態(tài)系統(tǒng)得到了一次大掃除,從數(shù)據(jù)處理流程到簡(jiǎn)單的模型導(dǎo)出,再到 TensorBoard 與 Keras 的集成,現(xiàn)在只要一行即可實(shí)現(xiàn)!

 

 

還有一些很棒的工具可以切換和優(yōu)化分布策略,從而獲得驚人的擴(kuò)展效率,同時(shí)又不會(huì)失去 Keras 本身的便利性。

 

 

這些分布策略都很棒,不是嗎?

問(wèn)題

如果性能不是問(wèn)題,那一定還有別的陷阱對(duì)吧?

事實(shí)上,到目前為止,問(wèn)題就是用戶等待了太久。TensorFlow 在開(kāi)發(fā)一個(gè)友好的版本時(shí),要求用戶有相當(dāng)多的耐心。這不是故意刁難用戶。開(kāi)發(fā)深度學(xué)習(xí)工具是一個(gè)新的領(lǐng)域,我們一直在沿著這個(gè)方向前進(jìn)。彎路是不可避免的,但我們?cè)诖诉^(guò)程中學(xué)到了很多東西。

這不是故意刁難用戶。深度學(xué)習(xí)是一個(gè)未知的領(lǐng)域。

TensorFlow 社區(qū)投入了大量的精力來(lái)創(chuàng)造這份奇跡,然后再次付出更多的努力打磨這顆最好的寶石,同時(shí)打磨掉不好的設(shè)計(jì)。這個(gè)計(jì)劃不會(huì)強(qiáng)迫你永遠(yuǎn)使用未磨好的「原石」,但也許你已經(jīng)習(xí)慣了這種不舒服,你沒(méi)有意識(shí)到這是暫時(shí)的。感謝你的耐心等待!

我們不會(huì)放棄性能!

回報(bào)就是你所欣賞的關(guān)于 TensorFlow 1.x 的一切都還在,它們?cè)谝恢碌?API 下,且刪除了大量的重復(fù)功能,因此使用起來(lái)更清晰。即使是錯(cuò)誤信息,也清理得簡(jiǎn)明扼要、易于理解、易于操作。它的性能仍然強(qiáng)大!

最重要的事情

hater 可能會(huì)說(shuō) v2.0 中的大部分特性都可以在 v1.x 中拼湊出來(lái),只要你搜索得足夠多,所以有什么可大驚小怪的呢?好吧,不是每個(gè)人都想花費(fèi)時(shí)間在沙里淘金。改造和清理工作值得大家的掌聲。但這不是最重要的事情。

不容錯(cuò)過(guò)的一點(diǎn)是:TensorFlow 剛剛宣布了對(duì)易用性的關(guān)注,這一點(diǎn)不容妥協(xié)。

這是人工智能民主化進(jìn)程中前所未有的一步!

AI 可自動(dòng)執(zhí)行任務(wù),你無(wú)需再想相關(guān)的說(shuō)明。它可以自動(dòng)化描述不出的內(nèi)容。民主化意味著大規(guī)模的人工智能將不再是少數(shù)精英的專屬了。

現(xiàn)在任何人都可以引舵!

想象一下未來(lái)「我知道如何用 Python 開(kāi)發(fā)東西」和「我知道如何用 AI 開(kāi)發(fā)東西」同樣司空見(jiàn)慣,這幾乎可以用「顛覆」二字來(lái)形容。

遷移

我們知道升級(jí)到新版本是一項(xiàng)艱苦的工作,尤其是當(dāng)這些變化如此巨大時(shí)。如果你準(zhǔn)備將代碼庫(kù)遷移至 2.0,那么你并不孤單,Google 將執(zhí)行同樣的操作,谷歌擁有世界上最大的代碼庫(kù)。隨著我們的深入,我們將分享遷移指南來(lái)幫助大家。

我們提供了很好的工具來(lái)簡(jiǎn)化遷移。

如果你依賴于特定的功能,那么除了 contrib 其他都沒(méi)什么問(wèn)題,所有 TF 1.x 的功能都將存在于 compat.v1 兼容模塊中。我們還提供一個(gè)腳本(http://bit.ly/tfupgrade),它會(huì)自動(dòng)更新代碼,使其在 TensorFlow 2.0 上運(yùn)行。更多信息參見(jiàn)以下視頻:

如果你希望深入了解 TF 2.0 和如何處理代碼片段,那么這個(gè)視頻是一個(gè)很好的資源。

對(duì)小白來(lái)說(shuō)

TF 2.0 是初學(xué)者的天堂,所以對(duì)于那些一直期待看著菜鳥(niǎo)們?cè)庥鲞^(guò)來(lái)人痛苦的人來(lái)說(shuō),這不會(huì)發(fā)生了。

如果你希望使用 TensorFlow 來(lái)欺負(fù)新員工,你可能需要「另辟蹊徑」了。

如果你是 TensorFlow 初學(xué)者,你可能會(huì)在 AI 派對(duì)上遲到,但是很多人都會(huì)遲到。現(xiàn)在就是入場(chǎng)的最佳時(shí)間!

待在場(chǎng)外可能是明智的選擇,因?yàn)楝F(xiàn)在才是入場(chǎng)的最佳時(shí)機(jī)。2019 年 3 月,TensorFlow 2.0 Alpha 版本已經(jīng)可用,所以現(xiàn)在學(xué)習(xí)它可以讓你及時(shí)準(zhǔn)備好迎接下個(gè)季度發(fā)布的完整版本。

TF 2.0 是初學(xué)者的天堂。

隨著 TF 2.0 的大量變化,你不會(huì)成為當(dāng)初想象的那種初學(xué)者。比賽場(chǎng)地變得平坦,比賽變得更加輕松,而且有一個(gè)座位專門為你而留。歡迎!我很高興你終于到了這里,我希望你和我一樣對(duì)這個(gè)新世界感到興奮。

加入吧!

查看重新設(shè)計(jì)的 tensorflow.org(http://bit.ly/tfdotorg),獲取教程、示例、文檔和工具,來(lái)幫助入門……或者直接使用以下命令:

pip install tensorflow == 2.0.0-alpha0

詳細(xì)說(shuō)明參見(jiàn):http://bit.ly/tfalpha。

原文鏈接:https://hackernoon.com/tensorflow-is-dead-long-live-tensorflow-49d3e975cf04?sk=37e6842c552284444f12c71b871d3640

標(biāo)簽: [db:TAGG]

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請(qǐng)與原作者聯(lián)系。

上一篇:國(guó)家發(fā)展改革委回應(yīng)推動(dòng)大數(shù)據(jù)創(chuàng)新和數(shù)字經(jīng)濟(jì)高質(zhì)量發(fā)展有關(guān)問(wèn)題

下一篇:新數(shù)據(jù)時(shí)代下的新一代G5存儲(chǔ)平臺(tái)