中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

如何入門機(jī)器學(xué)習(xí)?這里有一份來自英偉達(dá)計(jì)算機(jī)科學(xué)家的課程清單

2019-08-08    來源:raincent

容器云強(qiáng)勢(shì)上線!快速搭建集群,上萬Linux鏡像隨意使用

在機(jī)器學(xué)習(xí)的入門和進(jìn)階過程中,如果有一份好的 學(xué)習(xí)教程尤其是學(xué)習(xí)視頻,學(xué)習(xí)效果無疑會(huì)事半功倍。就職于英偉達(dá)人工智能應(yīng)用團(tuán)隊(duì)的計(jì)算機(jī)科學(xué)家 Chip Huyen 根據(jù)自己多年的教學(xué)和工程經(jīng)驗(yàn),總結(jié)了一份適合按順序依次學(xué)習(xí)的機(jī)器學(xué)習(xí)課程清單,具體清單如下文。

1、《Probability and Statistics(斯坦福概率和統(tǒng)計(jì))》

課程地址:http://t.cn/RD2EjZI

 

 

課程簡介:

概率和統(tǒng)計(jì)課程包含四個(gè)主要單元,每個(gè)單元又細(xì)分為幾個(gè)部分。

探索性數(shù)據(jù)分析:這個(gè)單元分為兩個(gè)部分——分布檢查分布和關(guān)系檢查。一般方法是為參與者提供一個(gè)框架,幫助他們?cè)诟鞣N情況下進(jìn)行數(shù)據(jù)分析時(shí)選擇適當(dāng)?shù)拿枋鲂苑椒ā?/p>

數(shù)據(jù)生產(chǎn):該單元分為兩個(gè)部分——抽樣和設(shè)計(jì)研究。

概率:在本課程中,這部分的內(nèi)容是概率的經(jīng)典處理方法,包括基本概率原理、事件的發(fā)現(xiàn)概率、條件概率、離散隨機(jī)變量(包括二項(xiàng)式分布)和連續(xù)隨機(jī)變量(重點(diǎn)是正態(tài)分布)。本單元討論了以模擬為基礎(chǔ)的采樣分布。作為一個(gè)簡化的概率介紹,它沒有介紹傳統(tǒng)的概率處理,而傾向于使用相對(duì)頻率的經(jīng)驗(yàn)方法,參與者可以看到 OLI 統(tǒng)計(jì)推理課程。

推理:本單元介紹推理的邏輯以及主要形式相關(guān)的技術(shù):點(diǎn)估計(jì)、區(qū)間估計(jì)和假設(shè)檢驗(yàn)。該單元包括人口平均數(shù)和人口比例的推斷方法、兩組和兩組以上平均數(shù)比較的推斷方法(方差分析)、獨(dú)立性卡方檢驗(yàn)和線性回歸。該單元加強(qiáng)了在探索性數(shù)據(jù)分析中引入的框架,以便在各種數(shù)據(jù)分析場(chǎng)景中選擇適當(dāng)?shù)耐评矸椒ā?/p>

在整個(gè)課程有許多互動(dòng)。其中包括:模擬,「演練」,整合語音和圖形來解釋一個(gè)程序或一個(gè)困難概念。通過互動(dòng)活動(dòng),學(xué)生練習(xí)如何解決問題,并且課程提供提示和即時(shí)、有針對(duì)性的反饋。

2、《Linear Algebra(MIT 線性代數(shù))》by Gilbert Strang

課程地址:http://t.cn/R61LGM4

 

 

課程簡介:

「線性代數(shù)」,同微積分一樣,是高等數(shù)學(xué)中兩大入門課程之一,不僅是一門非常好的數(shù)學(xué)課程,也是一門非常好的工具學(xué)科,在很多領(lǐng)域都有廣泛的用途。本課程講述了矩陣?yán)碚摷熬性代數(shù)的基本知識(shí),側(cè)重于那些與其他學(xué)科相關(guān)的內(nèi)容,包括方程組、向量空間、行列式、特征值、相似矩陣及正定矩陣。

目前,該課程在網(wǎng)易公開課上也有中文版視頻和課件,網(wǎng)易公開課地址:http://open.163.com/special/opencourse/daishu.html

公開課共 35 個(gè)視頻,前面 9 個(gè)視頻如下:

 

 

目前該課程早已經(jīng)更新完畢,同學(xué)們可以放心的學(xué)習(xí)啦~

3、《CS231N: Convolutional Neural Networks for Visual Recognition(斯坦福卷積網(wǎng)絡(luò)視覺識(shí)別)》

課程地址:https://www.youtube.com/playlist?list=PLzUTmXVwsnXod6WNdg57Yc3zFx_f-RYsq

課程簡介:

CS231n 的全稱是 CS231n: Convolutional Neural Networks for Visual Recognition,即面向視覺識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)。

該課程是斯坦福大學(xué)計(jì)算機(jī)視覺實(shí)驗(yàn)室推出的課程。本次給出的都是 2017 春季(4 月至 6 月)的最新版本,課程由李飛飛教授和他的兩個(gè)博士生 Justin Johnson 和 Serena Yeung 領(lǐng)銜教授。

 

 

CS231n 課程資源主要由授課視頻與 PPT,客座講座,授課知識(shí)詳解筆記,課程作業(yè),課程項(xiàng)目五部分組成。其中:

授課視頻 14 課。每節(jié)課時(shí)約 1 小時(shí)左右,每節(jié)課一份 PPT

客座講座 2 課。每節(jié)講座約 1 小時(shí) 30 分左右

授課知識(shí)詳解筆記共 16 份

課程作業(yè) 3 次

課程項(xiàng)目 1 個(gè)

拓展閱讀若干

如果你想了解計(jì)算機(jī)視覺,CS231n 是非常好的入門材料,也是計(jì)算機(jī)視覺和深度學(xué)習(xí)領(lǐng)域最經(jīng)典的課程之一,這門課適合絕大多數(shù)想要學(xué)習(xí)深度學(xué)習(xí)知識(shí)的人。

4、《Practical Deep Learning for Coders(fastai 程序員深度學(xué)習(xí)實(shí)戰(zhàn))》

課程地址:https://course.fast.ai/

愛可可老師在 kanbilibili 上上傳了視頻,也可以下載視頻學(xué)習(xí):https://www.kanbilibili.com/video/av41718196/

 

 

課程簡介:

這是該課程的 2019 版本。該課程的老師是大名鼎鼎的 Jeremy Howard。Jeremy Howard 是大數(shù)據(jù)競賽平臺(tái) Kaggle 的前主席和首席科學(xué)家,也是 Kaggle 冠軍選手。他是美國奇點(diǎn)大學(xué)(Singularity University)最年輕的教職工,同時(shí)也是多家科技公司的創(chuàng)始人和 CEO。

Fast AI 是 Jeremy Howard 在 2017 年創(chuàng)立的,免費(fèi)提供關(guān)于深度學(xué)習(xí)技術(shù)的系列實(shí)戰(zhàn)性視頻教程。該教程注重講解在工程實(shí)踐中真正行之有效的方法,這些方法都是 Jeremy Howard 本人親身經(jīng)歷并總結(jié)出來的,是深度學(xué)習(xí)領(lǐng)域非常實(shí)用的教程。

5、《CS224N: Natural Language Processing with Deep Learning(斯坦福深度學(xué)習(xí)自然語言處理)》

課程地址:https://www.youtube.com/playlist?list=PLU40WL8Ol94IJzQtileLTqGZuXtGlLMP_

相關(guān)課件:https://ai.yanxishe.com/page/resourceDetail/770

 

 

課程簡介:

課程的領(lǐng)銜主講是自然語言處理領(lǐng)域著名學(xué)者,著有《統(tǒng)計(jì)自然語言處理基礎(chǔ)》、《信息檢索導(dǎo)論》等自然語言處理著名教材的 Christopher Manning 和 Salesforce 的首席科學(xué)家 Richard Socher。

自然語言處理(NLP)是信息時(shí)代最重要的技術(shù)之一。理解復(fù)雜的語言話語也是人工智能的重要組成部分。NLP 的應(yīng)用無處不在,NLP 應(yīng)用程序背后有大量的基礎(chǔ)任務(wù)和機(jī)器學(xué)習(xí)模型,這些模型通?梢酝ㄟ^單一的端到端模型進(jìn)行訓(xùn)練,而不需要傳統(tǒng)的、特定任務(wù)特征的工程。

在這個(gè)冬季課程中,學(xué)生將學(xué)習(xí)執(zhí)行、訓(xùn)練、調(diào)試、可視化和創(chuàng)造他們自己的神經(jīng)網(wǎng)絡(luò)模型。該課程全面介紹了應(yīng)用于 NLP 的深度學(xué)習(xí)尖端研究。在模型方面,我們將介紹詞向量表示、基于窗口的神經(jīng)網(wǎng)絡(luò)、遞歸神經(jīng)網(wǎng)絡(luò)、長期短期記憶模型、遞歸神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)以及一些涉及存儲(chǔ)器組件的最新模型。

通過講座和編程作業(yè),學(xué)生將學(xué)會(huì)運(yùn)用神經(jīng)網(wǎng)絡(luò)到實(shí)際問題中的必備技巧。

6、《Machine Learning(Coursera 斯坦福機(jī)器學(xué)習(xí)課程)》

課程地址:https://www.coursera.org/learn/machine-learning

 

 

課程簡介:

該課程的講師是大家都非常熟悉的 Andrew Ng。在本課程中,你將學(xué)習(xí)最有效的機(jī)器學(xué)習(xí)技術(shù),你不僅會(huì)學(xué)到理論基礎(chǔ),還將獲得快速地將這些技術(shù)應(yīng)用于新問題所需的實(shí)踐知識(shí)。最后,你還會(huì)了解硅谷在創(chuàng)新方面和機(jī)器學(xué)習(xí)、人工智能有關(guān)的一些最佳實(shí)踐。

本課程對(duì)機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和統(tǒng)計(jì)模式識(shí)別進(jìn)行了介紹。課程包括:

(i)監(jiān)督學(xué)習(xí)(參數(shù)/非參數(shù)算法、支持向量機(jī)、內(nèi)核、神經(jīng)網(wǎng)絡(luò));

(ii)無監(jiān)督學(xué)習(xí)(聚類、降維、推薦系統(tǒng)、深度學(xué)習(xí));

(iii)機(jī)器學(xué)習(xí)的最佳實(shí)踐(偏差/方差理論;機(jī)器學(xué)習(xí)的創(chuàng)新過程和人工智能);

本課程還將通過大量的案例研究和應(yīng)用程序,讓學(xué)生學(xué)習(xí)如何將學(xué)習(xí)算法應(yīng)用于構(gòu)建智能機(jī)器人(感知、控制)、文本理解(網(wǎng)絡(luò)搜索、反垃圾郵件)、計(jì)算機(jī)視覺、醫(yī)療信息學(xué)、音頻、數(shù)據(jù)挖掘和其他領(lǐng)域。

7、《Probabilistic Graphical Models Specialization(Coursera 斯坦福概率圖模型專項(xiàng)課程)》

課程地址:https://www.coursera.org/specializations/probabilistic-graphical-models

 

 

課程簡介:

該課程包含 3 個(gè)專項(xiàng)課程:

概率圖模型 1:表示

概率圖形模型(PGMS)是一個(gè)豐富的框架,用于編碼復(fù)雜域上的概率分布:在大量相互作用的隨機(jī)變量上的聯(lián)合(多變量)分布。本課程描述了兩種基本的 PGM 表示:基于有向圖的貝葉斯網(wǎng)絡(luò)和使用無向圖的馬爾可夫網(wǎng)絡(luò)。

本課程討論了這些表示的理論性質(zhì)以及它們?cè)趯?shí)踐中的應(yīng)用。除了基本的 PGM 表示,本課程還提供了一些重要的擴(kuò)展,這些擴(kuò)展允許更復(fù)雜的模型被緊湊地編碼。

概率圖模型 2:推理

在第一門側(cè)重于表示的課程之后,本課程將討論概率推理的問題:如何使用 PGM 來回答問題。

盡管 PGM 通常描述一個(gè)非常高維度的分布,但它的結(jié)構(gòu)設(shè)計(jì)是為了有效地回答問題。本課程針對(duì)不同類型的推理任務(wù)提出了精確和近似的算法,并討論了每種算法的最佳應(yīng)用場(chǎng)合。課程包含兩個(gè)實(shí)踐編程任務(wù),實(shí)現(xiàn)了最常用的精確和近似算法,并應(yīng)用于實(shí)際問題。

概率圖模型 3:學(xué)習(xí)

本課程解決了學(xué)習(xí)問題:如何從一組示例數(shù)據(jù)中學(xué)習(xí) PGM。課程討論了有向和無向模型中參數(shù)估計(jì)的關(guān)鍵問題,以及有向模型的結(jié)構(gòu)學(xué)習(xí)任務(wù)。課程包含兩個(gè)實(shí)踐編程任務(wù),實(shí)現(xiàn)了兩個(gè)常用學(xué)習(xí)算法,并將其應(yīng)用于實(shí)際問題。

8、《Introduction to Reinforcement Learning(DeepMind 強(qiáng)化學(xué)習(xí)導(dǎo)論)》

課程地址:https://www.youtube.com/playlist?list=PLqYmG7hTraZDM-OYHWgPebj2MfCFzFObQ

不能翻墻的同學(xué)可以在 bilibili 上學(xué)習(xí)這個(gè)課程:https://www.bilibili.com/video/av24060851/

 

 

課程簡介:

該課程是由 DeepMind 發(fā)布的,課程共有 10 個(gè)視頻,分別是:

強(qiáng)化學(xué)習(xí)入門

馬爾科夫決策過程

動(dòng)態(tài)規(guī)劃

無模型預(yù)測(cè)

無模型控制

值函數(shù)逼近

策略梯度法

整合學(xué)習(xí)規(guī)劃

探索與利用

案例研究:經(jīng)典游戲中的強(qiáng)化學(xué)習(xí)

9、《Full Stack Deep Learning Bootcamp(全棧深度學(xué)習(xí)訓(xùn)練營)》

課程地址:https://fullstackdeeplearning.com/march2019

 

 

課程簡介:

這是一個(gè)為熟悉深度學(xué)習(xí)基礎(chǔ)知識(shí)的開發(fā)人員提供實(shí)踐課程。在這個(gè)課程中,開發(fā)人員將完成項(xiàng)目:如何部署端到端的深度學(xué)習(xí)系統(tǒng)。

 

 

當(dāng)然,開發(fā)人員還會(huì)學(xué)到有關(guān)生產(chǎn)實(shí)踐的深度學(xué)習(xí)知識(shí),包括

闡述問題并估算項(xiàng)目成本

查找、清洗、標(biāo)記和擴(kuò)充數(shù)據(jù)

選擇正確的框架和計(jì)算基礎(chǔ)架構(gòu)

故障排除訓(xùn)練,確保可重現(xiàn)性

大規(guī)模模型部署

學(xué)生們將完成一個(gè)最終將計(jì)算機(jī)視覺和自然語言處理系統(tǒng)部署到生產(chǎn)中的項(xiàng)目。也有機(jī)會(huì)測(cè)試你的知識(shí),并準(zhǔn)備參加可選的筆試面試。

兩天的課程包含的具體內(nèi)容如下圖所示:

 

 

 

 

在課程完成之后,還可以參加筆試和面試來測(cè)試自己的水平。

10、《How to Win a Data Science Competition: Learn from Top Kagglers(Coursera 跟頂級(jí) Kagglers 學(xué)習(xí)如何贏取數(shù)據(jù)科學(xué)競賽)》

課程地址:https://www.coursera.org/learn/competitive-data-science/home/welcome

 

 

如果你想開始學(xué)習(xí)數(shù)據(jù)科學(xué),那么這門課程就是為你準(zhǔn)備的!

參加建模預(yù)測(cè)競賽可以幫助你獲得實(shí)踐經(jīng)驗(yàn),提高在信貸、保險(xiǎn)、營銷、自然語言處理、銷售預(yù)測(cè)和計(jì)算機(jī)視覺等各個(gè)領(lǐng)域的數(shù)據(jù)建模技能。在本課程中,您將學(xué)習(xí)如何分析和完成具此類有難度的預(yù)測(cè)建模任務(wù)。

當(dāng)你完成這門課,你將:

了解如何有效地完成預(yù)測(cè)性建模競賽,并將學(xué)會(huì)的技能用于實(shí)際任務(wù)

了解如何預(yù)處理數(shù)據(jù)并通過各種數(shù)據(jù)(如文本和圖像)生成新特征

學(xué)習(xí)高級(jí)的特征工程技術(shù)

能夠形成可靠的交叉驗(yàn)證方法

獲得分析和解析數(shù)據(jù)的經(jīng)驗(yàn)

掌握不同算法的知識(shí),學(xué)習(xí)如何有效地調(diào)整超參數(shù)并獲得最佳性能

了解過去的冠軍方案和代碼,并學(xué)習(xí)如何閱讀它們

本課程將教你如何獲得高級(jí)別的解決方案,重點(diǎn)是機(jī)器學(xué)習(xí)方法的實(shí)際使用,而不是背后的理論基礎(chǔ)。因此,學(xué)習(xí)這門課的先決條件是你必須具備機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)。

11.《BerkeleyX: CS188.1x Artificial Intelligence(伯克利 AI)》

課程地址:https://courses.edx.org/courses/BerkeleyX/CS188.1x-4/1T2015/course/

 

 

課程簡介:

該課程歷時(shí) 11 周,從最基本的 AI 概念講起,再過渡到搜索規(guī)劃、博弈論、強(qiáng)化學(xué)習(xí)等等內(nèi)容。課程中間穿插了 3 個(gè)實(shí)踐項(xiàng)目,分別是搜索規(guī)劃、游戲樹和決策理論和強(qiáng)化學(xué)習(xí)。在完成課程的學(xué)習(xí)之后,可以參加期末考試,考試通過的同學(xué)可以獲得證書。

學(xué)習(xí)該課程需要的知識(shí)儲(chǔ)備:

程序設(shè)計(jì):面向?qū)ο缶幊、遞歸、Python 或快速學(xué)習(xí) Python 的能力

數(shù)據(jù)結(jié)構(gòu):列表與集合(數(shù)組,哈希表)、隊(duì)列(堆棧,隊(duì)列,優(yōu)先級(jí)隊(duì)列)、樹與圖(遍歷,背景)

數(shù)學(xué):概率,隨機(jī)變量和期望(離散)、基本漸近復(fù)雜度(Big-O)、基本計(jì)數(shù)(排列組合)

標(biāo)簽: 機(jī)器學(xué)習(xí)

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請(qǐng)與原作者聯(lián)系。

上一篇:是什么讓數(shù)據(jù)科學(xué)家從優(yōu)秀變得偉大?

下一篇:30億條信息泄露,96家互聯(lián)網(wǎng)公司遭殃,案子破了!