中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

一文看盡三種針對(duì)人工智能系統(tǒng)的攻擊技術(shù)及防御策略

2018-07-10    來源:raincent

容器云強(qiáng)勢(shì)上線!快速搭建集群,上萬Linux鏡像隨意使用
本文綜述了三種針對(duì)人工智能系統(tǒng)的攻擊技術(shù)——對(duì)抗性輸入、數(shù)據(jù)中毒攻擊及模型竊取技術(shù),在每一種攻擊的討論中都加入了具體例子及防御策略,旨在為所有對(duì)利用人工智能進(jìn)行反濫用防御感興趣的人提供一個(gè)概述。

對(duì)分類器的高層次攻擊可以分為以下三種類型:

對(duì)抗性輸入:這是專門設(shè)計(jì)的輸入,旨在確保被誤分類,以躲避檢測(cè)。對(duì)抗性輸入包含專門用來躲避防病毒程序的惡意文檔和試圖逃避垃圾郵件過濾器的電子郵件。

數(shù)據(jù)中毒攻擊:這涉及到向分類器輸入對(duì)抗性訓(xùn)練數(shù)據(jù)。我們觀察到的最常見的攻擊類型是模型偏斜,攻擊者以這種方式污染訓(xùn)練數(shù)據(jù),使得分類器在歸類好數(shù)據(jù)和壞數(shù)據(jù)的時(shí)候向自己的偏好傾斜。我們?cè)趯?shí)踐中觀察到的第二種攻擊是反饋武器化(feedback weaponization),它試圖濫用反饋機(jī)制來操縱系統(tǒng)將好的內(nèi)容誤分類為濫用類(例如,競(jìng)爭(zhēng)者的內(nèi)容或者報(bào)復(fù)性攻擊的一部分)。

模型竊取技術(shù):用來通過黑盒探測(cè)「竊取」(即復(fù)制)模型或恢復(fù)訓(xùn)練數(shù)據(jù)身份。例如,這可以用來竊取股市預(yù)測(cè)模型和垃圾郵件過濾模型,以便使用它們或者能夠針對(duì)這些模型進(jìn)行更有效的優(yōu)化。

這篇文章依次探討了每一類攻擊,提供了具體的例子,并且討論了可能的緩解方法。

這篇文章是關(guān)于如何使用人工智能構(gòu)建魯棒的反濫用保護(hù)系統(tǒng)系列文章中的第四篇,也是最后一篇。第一篇文章解釋了為何 AI 是構(gòu)建魯棒的保護(hù)系統(tǒng)的關(guān)鍵,這種保護(hù)用來滿足用戶期望和日益提升的復(fù)雜攻擊。在介紹完構(gòu)建和啟動(dòng)一個(gè)基于 AI 的防御系統(tǒng)的自然過程之后,第二篇博文涵蓋了與訓(xùn)練分類器相關(guān)的挑戰(zhàn)。第三篇文章探討了在生產(chǎn)中使用分類器來阻止攻擊的主要困難。

這一系列文章是根據(jù)我在 RSA 2018 上的演講寫出來的。

 

 

聲明:這篇文章旨在為所有對(duì)利用人工智能進(jìn)行反濫用防御感興趣的人提供一個(gè)概述,它是那些正在跳躍觀望的人的潛在藍(lán)圖。因此,這篇文章側(cè)重于提供一個(gè)清晰的高層次總結(jié),有意不深入技術(shù)細(xì)節(jié)。也就是說,如果你是一名專家,我相信你會(huì)發(fā)現(xiàn)你以前沒有聽說過的想法、技術(shù)和參考資料,希望你會(huì)受到啟發(fā),并進(jìn)一步探索它們。

對(duì)抗性輸入

對(duì)手不斷用新的輸入/有效載荷來探測(cè)分類器,試圖逃避探測(cè)。這種有效載荷被稱為對(duì)抗性輸入,因?yàn)樗鼈儽幻鞔_設(shè)計(jì)成繞過分類器。

 

 

這是一個(gè)對(duì)抗輸入的具體例子:幾年前,一個(gè)聰明的垃圾郵件發(fā)送者意識(shí)到,如果同一個(gè) multipart 附件在一封電子郵件中出現(xiàn)多次,Gmail 將只顯示上圖屏幕截圖中可見的最后一個(gè)附件。他將這一知識(shí)武器化,增加了不可見的第一個(gè) multipart,其中包含許多著名的域,試圖逃避檢測(cè)。此攻擊是稱為關(guān)鍵字填充的攻擊類別的一個(gè)變體。

一般來說,分類器遲早會(huì)面臨兩種對(duì)抗性輸入:變異輸入,這是為避開分類器而專門設(shè)計(jì)的已知攻擊的變體;零日輸入,這是在有效載荷之前從未見過的。讓我們依次探究每一種對(duì)抗性輸入。

變異輸入

 

 

在過去的幾年里,我們看到地下服務(wù)爆炸式增長(zhǎng),這種服務(wù)旨在幫助網(wǎng)絡(luò)犯罪分子制造不可探測(cè)的有效載荷,在秘密世界中最有名的是 FUD(完全不可探測(cè)的) 有效載荷。這些服務(wù)從允許針對(duì)所有防病毒軟件測(cè)試有效負(fù)載的測(cè)試服務(wù),到旨在以使惡意文檔不可檢測(cè)的方式混淆惡意文檔的自動(dòng)打包程序。上面的截圖展示了兩個(gè)這樣的服務(wù)。

專門從事有效載荷制造的地下服務(wù)的重新出現(xiàn)凸顯了這樣一個(gè)事實(shí):

攻擊者主動(dòng)優(yōu)化攻擊,以確保最小化分類器檢測(cè)率。

因此,必須開發(fā)檢測(cè)系統(tǒng),使攻擊者難以進(jìn)行有效負(fù)載優(yōu)化。下面是三個(gè)關(guān)鍵的設(shè)計(jì)策略來幫助實(shí)現(xiàn)這一點(diǎn)。

1. 限制信息泄露

 

 

這里的目標(biāo)是確保攻擊者在探查你的系統(tǒng)時(shí)獲得盡可能少的收獲。保持反饋?zhàn)钚』⒈M可能延遲反饋是很重要的,例如避免返回詳細(xì)的錯(cuò)誤代碼或置信度值。

2. 限制探測(cè)

此策略的目標(biāo)是通過限制攻擊者針對(duì)你的系統(tǒng)測(cè)試有效負(fù)載的頻率來降低攻擊者的速度。通過限制攻擊者對(duì)你的系統(tǒng)執(zhí)行測(cè)試的頻率可以有效降低他們?cè)O(shè)計(jì)有害有效負(fù)載的速度。

 

 

這一策略主要是通過對(duì)稀缺資源(如 IP 和帳戶)實(shí)施速率限制來實(shí)現(xiàn)的。這種速率限制的典型例子是要求用戶解決驗(yàn)證碼,驗(yàn)證他是否發(fā)布的太頻繁,如上所示。

 

 

這種主動(dòng)限制活動(dòng)率的負(fù)面影響是,它會(huì)鼓勵(lì)不良行為者創(chuàng)建假賬戶,并使用受損的用戶計(jì)算機(jī)來分散他們的 IP 池。業(yè)內(nèi)廣泛使用限速是非常活躍的黑市論壇興起的一個(gè)主要驅(qū)動(dòng)因素,在這些論壇中,賬戶和 IP 地址被常規(guī)出售,如上面的截圖所示。

3. 集成學(xué)習(xí)

最后但同樣重要的是,結(jié)合各種檢測(cè)機(jī)制,使攻擊者更難繞過整個(gè)系統(tǒng)。使用集成學(xué)習(xí)將基于聲譽(yù)的檢測(cè)方法、人工智能分類器、檢測(cè)規(guī)則和異常檢測(cè)等不同類型的檢測(cè)方法結(jié)合起來,提高了系統(tǒng)的魯棒性,因?yàn)椴涣夹袨檎卟坏貌煌瑫r(shí)制作避免所有這些機(jī)制的有效載荷。

 

 

例如,如上面的截圖所示,為了確保 Gmail 分類器對(duì)垃圾郵件制造者的魯棒性,我們將多個(gè)分類器和輔助系統(tǒng)結(jié)合在一起。這樣的系統(tǒng)包括聲譽(yù)系統(tǒng)、大型線性分類器、深度學(xué)習(xí)分類器和其他一些秘密技術(shù)。

深度神經(jīng)網(wǎng)絡(luò)對(duì)抗攻擊實(shí)例

 

 

如何制作欺騙深度神經(jīng)網(wǎng)絡(luò)(DNN)的對(duì)抗例子是一個(gè)非;钴S的相關(guān)研究領(lǐng)域,F(xiàn)在,創(chuàng)建難以察覺的擾動(dòng),徹底騙過 DNN 是一件小事,如上面從論文《Explaining and Harnessing Adversarial Examples》(https://arxiv.org/abs/1412.6572)截取的圖片所示。

最近的研究 (https://arxiv.org/abs/1711.11561) 表明,CNN 容易受到對(duì)抗性輸入攻擊,因?yàn)樗麄儍A向于學(xué)習(xí)表面的數(shù)據(jù)集的規(guī)則性,而不是很好地泛化和學(xué)習(xí)不太容易受到噪聲影響的高級(jí)表征。

 

 

這種攻擊會(huì)影響所有 DNN,包括基于增強(qiáng)學(xué)習(xí)的 DNN (https://arxiv.org/abs/1701.04143 ),如上面視頻中所強(qiáng)調(diào)的。要了解更多關(guān)于此類攻擊的信息,請(qǐng)閱讀 Ian Goodfellow 關(guān)于此主題的介紹文章,或者開始嘗試 Clever Hans 的實(shí)驗(yàn) (https://github.com/tensorflow/cleverhans)。

從防御者的角度來看,這種類型的攻擊已經(jīng)被證明(到目前為止)是非常有問題的,因?yàn)槲覀冞沒有有效的方法來防御這種攻擊。從根本上說,我們沒有一種有效的方法讓 DNN 為所有輸入產(chǎn)生良好的輸出。讓他們這樣做是非常困難的,因?yàn)?DNN 在非常大的空間內(nèi)執(zhí)行非線性/非凸優(yōu)化,我們還沒有教他們學(xué)習(xí)泛化良好的高級(jí)表征。你可以閱讀 Ian 和 Nicolas 的深度文章(http://www.cleverhans.io/security/privacy/ml/2017/02/15/why-attacking-machine-learning-is-easier-than-defending-it.html)來了解更多關(guān)于這個(gè)的信息。

零日輸入

另一種可以完全拋棄分類器的明顯的對(duì)抗性輸入是新的攻擊。新的攻擊不常發(fā)生,但知道如何應(yīng)對(duì)仍然很重要,因?yàn)樗鼈兛赡芫哂邢喈?dāng)大的破壞性。

 

 

盡管出現(xiàn)新攻擊有許多不可預(yù)測(cè)的潛在原因,但根據(jù)我們的經(jīng)驗(yàn),以下兩種事件可能會(huì)觸發(fā)新攻擊的出現(xiàn):

新產(chǎn)品或功能推出:本質(zhì)上,增加功能會(huì)為攻擊者打開新攻擊面,有利于它們快速進(jìn)行探查。這就是為什么新產(chǎn)品發(fā)布時(shí)提供零日防御是必要的(但很難)。

增加獎(jiǎng)勵(lì) :雖然很少討論,但許多新的攻擊激增是由攻擊媒介推動(dòng)的,變得非常有利可圖。這種行為最近的一個(gè)例子是,針對(duì) 2017 年底比特幣價(jià)格飆升,濫用 Google Cloud 等云服務(wù)來挖掘加密數(shù)字貨幣的行為有所抬頭。

隨著比特幣價(jià)格飆升至 1 萬美元以上,我們看到新的攻擊風(fēng)起云涌,企圖竊取 Google 云計(jì)算資源用于挖掘。稍后我將在這篇文章中介紹我們是如何發(fā)現(xiàn)這些新攻擊的。

 

 

總之,Nassim Taleb 形式化的黑天鵝理論(Black swan theory)適用于基于人工智能的防御,就像它適用于任何類型的防御一樣。

不可預(yù)測(cè)的攻擊遲早會(huì)拋棄你的分類器并將產(chǎn)生重大影響。

然而,不是因?yàn)槟銦o法預(yù)測(cè)哪些攻擊會(huì)拋棄你的分類器,或者這樣的攻擊什么時(shí)候會(huì)攻擊你,而你無能為力。你可以圍繞這類襲擊事件進(jìn)行規(guī)劃,并制定應(yīng)急計(jì)劃來緩解這種情況。在為黑天鵝事件做準(zhǔn)備時(shí),這里有幾個(gè)可以探索的方向。

1. 制定事件響應(yīng)流程

首先要做的是開發(fā)和測(cè)試事件恢復(fù)過程,以確保在措手不及時(shí)做出適當(dāng)反應(yīng)。這包括但不限于:在調(diào)試分類器時(shí),有必要的控件來延遲或停止處理,并知道調(diào)用哪個(gè)。

Google SRE(站點(diǎn)可靠性工程)手冊(cè)有一章關(guān)于事件管理(https://landing.google.com/sre/book/chapters/managing-incidents.html),還有一章關(guān)于應(yīng)急響應(yīng) ( https://landing.google.com/sre/book/chapters/emergency-response.html)。有關(guān)更加以網(wǎng)絡(luò)安全為中心的文檔,應(yīng)該查看 NIST (National Institute of Standards and Technology)網(wǎng)絡(luò)安全事件恢復(fù)指南(https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.800-184.pdf)。最后,如果你更愿意看一段對(duì)話,請(qǐng)看一下「Google 如何運(yùn)行災(zāi)難恢復(fù)培訓(xùn) (DiRT) 程序」的視頻 (https://www.usenix.org/conference/lisa15/conference-program/presentation/krishnan),以及「Faceboook 如何做出事件響應(yīng)」的視頻(https://www.usenix.org/node/197445)。

2. 使用遷移學(xué)習(xí)來保護(hù)新產(chǎn)品

明顯的關(guān)鍵困難是你沒有過去的數(shù)據(jù)來訓(xùn)練你的分類器。緩解這一問題的一種方法是利用遷移學(xué)習(xí),它允許你重用一個(gè)域中已經(jīng)存在的數(shù)據(jù),并將其應(yīng)用到另一個(gè)域。

例如,如果你處理圖像,你可以利用現(xiàn)有的預(yù)先訓(xùn)練好的模型(https://keras.io/applications/),而如果你處理文本,你可以使用公共數(shù)據(jù)集,比如Toxic Comment的 Jigsaw 數(shù)據(jù)集。

3. 利用異常檢測(cè)

異常檢測(cè)算法可以用作第一道防線,因?yàn)閺谋举|(zhì)上說,新的攻擊將產(chǎn)生一組從未遇到過的異常,這些異常與它們?nèi)绾问褂媚愕南到y(tǒng)有關(guān)。

 

 

引發(fā)一系列新反常現(xiàn)象的新攻擊的歷史性案例是針對(duì)馬薩諸塞州 WinFall 彩票游戲的麻省理工賭博集團(tuán)攻擊(https://www.theatlantic.com/business/archive/2016/02/how-mit-students-gamed-the-lottery/470349/)。

早在 2005 年,多個(gè)賭博集團(tuán)就發(fā)現(xiàn)了 WinFall 彩票系統(tǒng)的一個(gè)缺陷:當(dāng)累積獎(jiǎng)金在所有參與者之間平分時(shí),你每買一張 2 美元的彩票,平均就能掙 2.3 美元。每次資金池超過 200 萬美元時(shí),這種被稱為「roll-down」的分裂就會(huì)發(fā)生。

為了避免與其他團(tuán)體分享收益,麻省理工學(xué)院的團(tuán)體決定提前三周大規(guī)模買斷彩票,從而引發(fā)一場(chǎng)減持行動(dòng)。很明顯,這種從極少數(shù)零售商手中購買的大量彩票造成了彩票組織察覺到的大量異,F(xiàn)象。

 

 

最近,正如本文前面提到的,當(dāng)比特幣價(jià)格在 2017 年瘋狂上漲時(shí),我們開始看到一大批不良行為者試圖通過免費(fèi)使用 Google cloud 實(shí)例進(jìn)行挖掘,從這一熱潮中獲益。為了免費(fèi)獲取實(shí)例,他們?cè)噲D利用許多攻擊媒介,包括試圖濫用我們的免費(fèi)層、使用被盜信用卡、危害合法云用戶的計(jì)算機(jī)以及通過網(wǎng)絡(luò)釣魚劫持云用戶的帳戶。

 

 

很快,這種攻擊變得非常流行,以至于成千上萬的人觀看了 YouTube 上關(guān)于如何在 Google cloud 上挖掘的教程(這在正常情況下是無利可圖的)。顯然,我們無法預(yù)料惡意挖礦會(huì)成為如此巨大的問題。

 

 

幸運(yùn)的是,當(dāng)異常發(fā)生時(shí),我們已經(jīng)為 Google Cloud 實(shí)例準(zhǔn)備了異常檢測(cè)系統(tǒng)。正如預(yù)料的那樣,從我們的異常檢測(cè)系統(tǒng)儀表板上直接獲取的上圖中可以看出,當(dāng)實(shí)例開始挖掘時(shí),它們的時(shí)間行為發(fā)生了巨大的變化,因?yàn)殛P(guān)聯(lián)的資源使用與未妥協(xié)的云實(shí)例所顯示的傳統(tǒng)資源使用有著根本的不同。我們能夠使用這種移位檢測(cè)來遏制這種新的攻擊媒介,確保涉及到的云平臺(tái)和 GCE 客戶端保持穩(wěn)定。

數(shù)據(jù)中毒

分類器面臨的第二類攻擊涉及試圖毒害你的數(shù)據(jù)以使你的系統(tǒng)行為出錯(cuò)的對(duì)手。

1、模型偏斜

第一種中毒攻擊稱為模型偏斜,攻擊者試圖污染訓(xùn)練數(shù)據(jù),以移動(dòng)分類器對(duì)好、壞輸入歸類的學(xué)習(xí)邊界。例如,模型偏斜可以用來試圖污染訓(xùn)練數(shù)據(jù),欺騙分類器將特定的惡意二進(jìn)制文件標(biāo)記為良性。

具體例子

 

 

在實(shí)踐中,我們經(jīng)?吹揭恍┳钕冗M(jìn)的垃圾郵件制造者團(tuán)體試圖通過將大量垃圾郵件報(bào)告為非垃圾郵件來使 Gmail 過濾器偏離軌道。如圖所示,2017 年 11 月底至 2018 年初,至少有 4 次大規(guī)模惡意行動(dòng)試圖歪曲我們的分類器。

因此,在設(shè)計(jì)基于 AI 的防御時(shí),你需要考慮以下事實(shí):

攻擊者積極地試圖將學(xué)到的濫用和合理使用之間的界限轉(zhuǎn)移到對(duì)他們有利的位置。

緩解策略

為了防止攻擊者歪曲模型,可以利用以下三種策略:

使用合理的數(shù)據(jù)采樣:需要確保一小部分實(shí)體(包括 IP 或用戶)不能占模型訓(xùn)練數(shù)據(jù)的大部分。特別是要注意不要過分重視用戶報(bào)告的假陽性和假陰性。這可能通過限制每個(gè)用戶可以貢獻(xiàn)的示例數(shù)量,或者基于報(bào)告的示例數(shù)量使用衰減權(quán)重來實(shí)現(xiàn)。

將新訓(xùn)練的分類器與前一個(gè)分類器進(jìn)行比較以估計(jì)發(fā)生了多大變化。例如,可以執(zhí)行 dark launch,并在相同流量上比較兩個(gè)輸出。備選方案包括對(duì)一小部分流量進(jìn)行 A/B 測(cè)試和回溯測(cè)試。

構(gòu)建標(biāo)準(zhǔn)數(shù)據(jù)集,分類器必須準(zhǔn)確預(yù)測(cè)才能投入生產(chǎn)。此數(shù)據(jù)集理想地包含一組精心策劃的攻擊和代表你的系統(tǒng)的正常內(nèi)容。這一過程將確保你能夠在武器化攻擊對(duì)你的用戶產(chǎn)生負(fù)面影響之前,檢測(cè)出該攻擊何時(shí)能夠在你的模型中產(chǎn)生顯著的回歸。

2、反饋武器化

第二類數(shù)據(jù)中毒攻擊是將用戶反饋系統(tǒng)武器化,以攻擊合法用戶和內(nèi)容。一旦攻擊者意識(shí)到你正在出于懲罰的目的以某種方式使用用戶反饋,他們就會(huì)試圖利用這一事實(shí)為自己謀利。

具體例子

 

 

我們?cè)?2017 年目睹的最令人震驚的將用戶反饋武器化的嘗試之一是一群 4chan 用戶,他們決定通過留下數(shù)千個(gè) 1 星評(píng)級(jí)破壞 CNN 在應(yīng)用商店的排名。

 

 

反饋武器化之所以被壞人積極利用,有很多原因,包括:試圖壓制競(jìng)爭(zhēng)、進(jìn)行報(bào)復(fù)、掩蓋自己的行蹤。上面的截圖展示了一個(gè)黑市帖子,討論了如何使用 Google 來擊敗競(jìng)爭(zhēng)對(duì)手。

因此,在構(gòu)建系統(tǒng)時(shí),你需要在以下假設(shè)下工作:

任何反饋機(jī)制都將被武器化以攻擊合法用戶和內(nèi)容。

緩解策略

在緩解反饋武器化的過程中,需要記住以下兩點(diǎn):

不要在反饋和懲罰之間建立直接循環(huán)。相反,在做出決定之前,確保評(píng)估反饋真實(shí)性,并將其與其他信號(hào)結(jié)合起來。

不要以為受益于濫用內(nèi)容的所有者對(duì)此負(fù)有責(zé)任。舉例來說,不是因?yàn)橐粡堈掌玫搅藬?shù)百個(gè)假的「贊」所有者才買下它。我們已經(jīng)看到無數(shù)襲擊者為了掩蓋他們的蹤跡或試圖讓我們懲罰無辜用戶而榨取合法內(nèi)容的案例。

3、模型竊取襲擊

如果不提及旨在恢復(fù)訓(xùn)練期間使用的模型或數(shù)據(jù)信息的攻擊,這篇文章將是不完整的。這種攻擊是一個(gè)關(guān)鍵問題,因?yàn)槟P痛砹擞袃r(jià)值的知識(shí)產(chǎn)權(quán)資產(chǎn),這些資產(chǎn)是根據(jù)公司的一些最有價(jià)值的數(shù)據(jù)進(jìn)行訓(xùn)練的,例如金融交易、醫(yī)療信息或用戶交易。

確保接受過用戶敏感數(shù)據(jù)(如癌癥相關(guān)數(shù)據(jù)等)訓(xùn)練的模型的安全性至關(guān)重要,因?yàn)檫@些模型可能被濫用,泄露敏感用戶信息 ( https://www.cs.cornell.edu/~shmat/shmat_oak17.pdf )。

攻擊

模型竊取的兩個(gè)主要攻擊是:

模型重建:這里的關(guān)鍵思想是攻擊者能夠通過探測(cè)公共 API 來重新創(chuàng)建模型,并通過將其用作 Oracle 來逐步完善自己的模型。最近的一篇論文(https://www.usenix.org/system/files/conference/usenixsecurity16/sec16_paper_tramer.pdf)表明,這種攻擊似乎對(duì)大多數(shù)人工智能算法有效,包括支持向量機(jī)、隨機(jī)森林和深度神經(jīng)網(wǎng)絡(luò)。

成員泄露:在這里,攻擊者構(gòu)建影子模型,使他能夠確定給定的記錄是否用于訓(xùn)練模型。雖然此類攻擊無法恢復(fù)模型,但可能會(huì)泄露敏感信息。

防御

 

 

最著名的防御模型竊取攻擊的方法是 PATE ( https://arxiv.org/abs/1802.08908),這是一個(gè)由 Ian Goodfellow 等人開發(fā)的隱私框架。如上圖所示,PATE 背后的關(guān)鍵思想是對(duì)數(shù)據(jù)進(jìn)行劃分,并訓(xùn)練多個(gè)組合在一起的模型來做出決策。這一決策隨后被其他不同隱私系統(tǒng)的噪聲所掩蓋。

要了解更多有關(guān)差分隱私的信息,請(qǐng)閱讀 Matt 的介紹文章(https://blog.cryptographyengineering.com/2016/06/15/what-is-differential-privacy/)。要了解更多關(guān)于 PATE 和模型竊取攻擊的信息,請(qǐng)閱讀 Ian 關(guān)于此主題的文章(http://www.cleverhans.io/privacy/2018/04/29/privacy-and-machine-learning.html)。

結(jié)論

是時(shí)候結(jié)束這一系列關(guān)于如何利用人工智能打擊欺詐和濫用的長(zhǎng)文了。本系列的主要收獲(詳見第一篇文章)是:

AI是構(gòu)建滿足用戶期待的保護(hù)機(jī)制和應(yīng)對(duì)愈加復(fù)雜的攻擊的關(guān)鍵。

正如這篇文章和前兩篇文章所討論的那樣,要使這項(xiàng)工作在實(shí)踐中發(fā)揮作用,還有一些困難需要克服。但是,既然 AI 框架已經(jīng)成熟并有很好的文檔記錄,那么在你的防御系統(tǒng)中開始使用 AI 是再好不過的時(shí)候了,所以不要對(duì)這些挑戰(zhàn)望而卻步。

原文鏈接:https://elie.net/blog/ai/attacks-against-machine-learning-an-overview

標(biāo)簽: Google 安全 代碼 電子郵件 金融 排名 網(wǎng)絡(luò) 網(wǎng)絡(luò)安全 網(wǎng)絡(luò)安全事件 云服務(wù) 云計(jì)算

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請(qǐng)與原作者聯(lián)系。

上一篇:一個(gè)Python特征選擇工具,助力實(shí)現(xiàn)高效機(jī)器學(xué)習(xí)

下一篇:解釋深度學(xué)習(xí)的新角度,來自光學(xué)的啟發(fā)