中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

2018 年度AI研究報(bào)告:丑聞層出不窮,監(jiān)管力度貧乏

2018-12-21    來源:raincent

容器云強(qiáng)勢上線!快速搭建集群,上萬Linux鏡像隨意使用

 

作者:AI Now 譯者:Alex

對于 AI 來說,2018 年是戲劇性的一年。從 Facebook 可能在緬甸煽動(dòng)種族清洗,到 Cambridge Analytica 試圖操縱選舉。以及谷歌為中國人建立一個(gè)秘密審查的搜索引擎,令人憤怒的微軟與 ICE 簽訂的合同,還有圍繞亞馬遜算法管理的倉庫?的條件引發(fā)的多起工人起義。這些頭條新聞層出不窮,而以上提及的僅是冰山一角。

這些層出不窮的人工智能丑聞的核心問題是問責(zé):當(dāng)人工智能系統(tǒng)傷害我們時(shí),誰負(fù)責(zé)?我們?nèi)绾卫斫膺@些危害,以及如何補(bǔ)救它們?干預(yù)的要點(diǎn)在哪里,需要進(jìn)行哪些額外的研究和監(jiān)管,以確保這些干預(yù)措施是有效的?目前,這些問題的答案很少,現(xiàn)有的監(jiān)管框架遠(yuǎn)遠(yuǎn)沒有達(dá)到所需的程度。隨著這些系統(tǒng)的普遍性、復(fù)雜性和規(guī)模的增長,這種缺乏意義的問責(zé)和監(jiān)督 (包括責(zé)任、義務(wù)和法定程序?的基本保障) 的情況成為人們?nèi)找嫫惹嘘P(guān)注的問題。

AI Now 在其 2016 和 2017 報(bào)告的基礎(chǔ)上,針對這一核心問題,在今年的報(bào)告中提出了 10 項(xiàng)切實(shí)可行的建議,以期建立基本的問責(zé)框架來管理這些先進(jìn)的技術(shù)。

1. 政府需要在相關(guān)領(lǐng)域內(nèi)擴(kuò)大特定部門機(jī)構(gòu)的權(quán)力來監(jiān)管人工智能,以便監(jiān)管、審查和監(jiān)控這些技術(shù)。

在缺乏健全的治理、監(jiān)管和問責(zé)制度的情況下,人工智能系統(tǒng)的開發(fā)和部署正在迅速擴(kuò)大。健康、教育、刑事司法和福利事業(yè)等領(lǐng)域都有自己的歷史、監(jiān)管框架和危害。然而,全國性的人工智能安全機(jī)構(gòu)或一般的人工智能標(biāo)準(zhǔn)和認(rèn)證模式將難以滿足更細(xì)致的監(jiān)管所需的專業(yè)部門知識。政府應(yīng)當(dāng)設(shè)立一種特定部門,它不對技術(shù)進(jìn)行管理和監(jiān)督,而是將重點(diǎn)放在特定領(lǐng)域內(nèi)的應(yīng)用上,例如美國聯(lián)邦航空管理局和國家公路交通安全管理局。

2. 人臉識別和情感識別需要嚴(yán)格的規(guī)范,以保護(hù)公眾利益。

這種監(jiān)管應(yīng)包括強(qiáng)有力的監(jiān)督、清晰化的約束以及公共透明的國家法律。公眾應(yīng)有權(quán)拒絕在公共和私人環(huán)境中應(yīng)用這些技術(shù)。由于強(qiáng)制性和持續(xù)性的大規(guī)模監(jiān)視的安全隱患,任何應(yīng)用的授權(quán)都應(yīng)該有更加嚴(yán)格的限制,僅僅公開聲明它們的應(yīng)用是不夠的。情感識別更加值得特別關(guān)注,它是面部識別的一個(gè)子類,它能夠根據(jù)面部圖像或視頻來檢測諸如人格、內(nèi)心感受、心理健康和“工作積極度”等事物。這些說法缺乏有力的科學(xué)證據(jù)支持,而且是以不道德和不負(fù)責(zé)任的方式加以應(yīng)用的,這些方法常常使人回想起相學(xué)之類的偽科學(xué)。將這些信息與雇用、保險(xiǎn)、教育和治安聯(lián)系起來,在個(gè)人和社會層面都會產(chǎn)生嚴(yán)重的風(fēng)險(xiǎn)。

3. 人工智能行業(yè)迫切需要新的管理方法。

如本報(bào)告所示,大多數(shù)技術(shù)公司的內(nèi)部管理框架未能確保人工智能系統(tǒng)的問責(zé)制。盡管政府監(jiān)管是一個(gè)重要方面,人工智能行業(yè)的公司也需要建立高于一般道德準(zhǔn)則的內(nèi)部問責(zé)框架。這應(yīng)包括在董事會、外部道德咨詢委員會中設(shè)立普通員工代表,以及實(shí)行獨(dú)立化的監(jiān)管和透明化的工作制度。第三方專家應(yīng)該能夠?qū)徍撕桶l(fā)布關(guān)鍵系統(tǒng),公司需要確保他們的 AI 基礎(chǔ)設(shè)施能夠從頭到尾被理解,包括他們的最終的部署和應(yīng)用。

4. 對于妨礙公共部門問責(zé)制的貿(mào)易保密和其他法律主張,人工智能公司應(yīng)當(dāng)主動(dòng)放棄。

對于為政府提供人工智能系統(tǒng)和自動(dòng)決策系統(tǒng)的供應(yīng)商以及開發(fā)人員,面對保障其軟件的貿(mào)易保密權(quán)或其他法律主張時(shí),應(yīng)當(dāng)主動(dòng)放棄。公司保密法是正當(dāng)程序的障礙:它們助長了“黑匣子效應(yīng)”,使應(yīng)用系統(tǒng)變得不透明且難以問責(zé),使人們無法評估偏差、競爭決策或糾正錯(cuò)誤。購買這些技術(shù)用于公共部門的任何組織或機(jī)構(gòu),在簽訂協(xié)議之前,都應(yīng)要求供應(yīng)商放棄這些索賠。

5. 科技公司應(yīng)該為特殊群體提供保護(hù),包括出于良心的反對者、員工組織和道德檢舉者。

技術(shù)人員的組織和抵制能力已經(jīng)成為一種問責(zé)和道德決策的重要力量。科技公司需要保護(hù)工人的組織和檢舉能力,并支持他們對從事的項(xiàng)目做出道德上的選擇。具體措施應(yīng)包括采取明確的政策,包容和保護(hù)出于良心的反對者,確保工人有權(quán)知道他們在從事什么工作,以及能夠在不被報(bào)復(fù)的情況下拒絕從事這類工作。提出道德問題的工人也必須受到保護(hù),為了公眾利益而告密者也必須受到保護(hù)。

6. 消費(fèi)者保護(hù)機(jī)構(gòu)應(yīng)針對人工智能產(chǎn)品和服務(wù)提出相關(guān)法律,要求其進(jìn)行“誠信宣傳”。

人工智能相關(guān)的炒作一直在增長,導(dǎo)致營銷承諾與產(chǎn)品實(shí)際效果之間的差距不斷擴(kuò)大。這些差距給個(gè)人和商業(yè)客戶帶來了越來越大的風(fēng)險(xiǎn),并且往往都會產(chǎn)生嚴(yán)重后果。就像其他有可能嚴(yán)重影響或利用人口數(shù)量的產(chǎn)品和服務(wù)一樣,人工智能供應(yīng)商應(yīng)該遵守高標(biāo)準(zhǔn)的承諾,尤其是在支持這些承諾的科學(xué)證據(jù)不充分和長期后果未知的情況下。

7. 技術(shù)公司必須超越“流水線模式”,并致力于解決其工作環(huán)境中的排斥和歧視。

科技公司和整個(gè)人工智能領(lǐng)域都把重點(diǎn)放在“流水線模式”上,希望培訓(xùn)和雇傭更多樣化的員工。雖然這一點(diǎn)很重要,但它忽略了當(dāng)人們被雇傭到工作環(huán)境時(shí)會發(fā)生什么,這些工作環(huán)境可能會基于性別、種族、性或殘疾而排斥、騷擾或系統(tǒng)地低估人們的價(jià)值。公司需要研究工作環(huán)境的更深層次的問題,以及排他性文化與他們生產(chǎn)的產(chǎn)品之間的關(guān)系,因?yàn)樗鼈冇锌赡軙䦟?dǎo)致工具產(chǎn)生永久性的偏見和歧視。在些改變的重點(diǎn)需要體現(xiàn)在實(shí)際行動(dòng)上,包括承諾薪酬和機(jī)會的平等,同時(shí)采取透明化的雇用和留用措施。

8. 在人工智能中,公平、問責(zé)和透明需要依賴于詳細(xì)的“全棧式供應(yīng)鏈”。

為了有意義的問責(zé),我們需要更好地理解和跟蹤人工智能系統(tǒng)的組件部分和它所依賴的整個(gè)供應(yīng)鏈:這意味著需要在產(chǎn)品生命周期中考慮訓(xùn)練數(shù)據(jù)、測試數(shù)據(jù)、模型、應(yīng)用程序接口 (API) 和其他基礎(chǔ)設(shè)施組件的來源和使用。我們稱其為人工智能系統(tǒng)的“全棧供應(yīng)鏈”,對于責(zé)任制度更健全的問責(zé)系統(tǒng),這是一個(gè)必要條件。對人工智能系統(tǒng)而言,全棧式供應(yīng)鏈還包括其對環(huán)保和勞動(dòng)力成本的相關(guān)信息,以及能源的使用,在發(fā)展中國家使用勞動(dòng)力的使用進(jìn)行內(nèi)容審核和訓(xùn)練數(shù)據(jù)的創(chuàng)建,以及依賴點(diǎn)擊工作者來開發(fā)和維護(hù)人工智能系統(tǒng)的雇傭模式。

9. 應(yīng)當(dāng)提供更多的資金和支持訴訟、勞工組織和社區(qū)參與者加入人工智能問責(zé)。

最有可能受到人工智能系統(tǒng)傷害的人往往是那些最不可能對結(jié)果提出異議的人。我們需要更多地支持健全的法律補(bǔ)救和公民參與機(jī)制。這包括支持一些公眾倡導(dǎo)者和勞工組織者,他們分別代表了因算法決策而被切斷社會服務(wù)的人,以及支持面臨失業(yè)和剝削風(fēng)險(xiǎn)的群體。同樣應(yīng)當(dāng)被考慮的還有供公眾參與的社區(qū)基礎(chǔ)設(shè)施。

10. 大學(xué)人工智能課程應(yīng)該超越計(jì)算機(jī)科學(xué)和工程學(xué)科。

人工智能最初是一個(gè)跨學(xué)科的領(lǐng)域,但經(jīng)過幾十年的發(fā)展,它已經(jīng)成為一門技術(shù)學(xué)科。隨著人工智能系統(tǒng)在社會領(lǐng)域的應(yīng)用越來越廣泛,人工智能也需要拓展其學(xué)科定位,包括累積一些社會和人文學(xué)科的專業(yè)知識形式。真正希望產(chǎn)生社會影響的人工智能成果不能僅僅停留在計(jì)算機(jī)科學(xué)和工程領(lǐng)域,在這些部門,教師和學(xué)生們并沒有學(xué)習(xí)過如何研究真實(shí)社會的情況。擴(kuò)大人工智能研究的學(xué)科方向?qū)⒋_保更深入地關(guān)注社會背景,在這種情況下,在將這些系統(tǒng)應(yīng)用于人類更多地關(guān)注潛在的危害。

更多詳情請閱讀完整報(bào)告:

https://ainowinstitute.org/AI_Now_2018_Report.pdf

查看英文原文:

https://medium.com/@AINowInstitute/after-a-year-of-tech-scandals-our-10-recommendations-for-ai-95b3b2c5e5

標(biāo)簽: b2c 安全 谷歌 搜索 搜索引擎

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:吳恩達(dá)發(fā)布一本全新電子書《轉(zhuǎn)型成為 AI企業(yè)快速指南》

下一篇:大數(shù)據(jù)在保險(xiǎn)行業(yè)的應(yīng)用