中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

誰來審核決定人生的算法?

2018-08-16    來源:raincent

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用
奧尼爾:在一些場合,算法已被證明不準確和有偏見。隨著人工智能進入越來越多關(guān)鍵領(lǐng)域,這日益成為一個問題。

計算機科學家們驚呆了。他們以為他們給了計算機一個不可能完成的任務:想出一種讓機器蜘蛛在腳不碰到地面的情況下行走的方法。但算法找到了一種繞過這種限制的方法。把機器蜘蛛翻轉(zhuǎn)過來,這樣它就能把肘關(guān)節(jié)當做腳來行走了。

就如本例所示,計算機算法非常善于根據(jù)明確的成功定義進行優(yōu)化。然而,在我們的日常生活中使用的很多算法和人工智能(AI)應用給出的結(jié)果并沒那么非凡,是否成功取決于發(fā)問者是誰。

在社會的相當大部分都關(guān)心算法結(jié)果的某些案例中(比如在面部識別技術(shù)這一正在成長的領(lǐng)域,或者在量刑中),算法提供的結(jié)果已被證明是不準確和有偏見的。隨著人工智能進入我們社會中越來越多的關(guān)鍵領(lǐng)域,這日益成為一個問題。

在歐洲努力在人工智能研發(fā)方面趕上美國和中國的同時,歐洲也理解人工智能存在的風險和道德陷阱,尤其是在算法出錯或做出有偏見的決策方面。

今年5月底生效的《通用數(shù)據(jù)保護條例》(GDPR)要求使用算法來自動化決策過程的數(shù)據(jù)控制者解釋相關(guān)決策的邏輯。GDPR第71條甚至隱藏著這樣一條要求:使用“適當?shù)臄?shù)學或者統(tǒng)計程序”來避免或減少源于錯誤或者不準確的風險。

這些要求的執(zhí)行情況還有待觀察,但歐盟似乎接受了算法問責制,包括對算法的審核,力求避免人工智能決策不當帶來的惡果。

在法國,埃馬紐埃爾•馬克龍(Emmanuel Macron)政府宣布,向社會公開所有為政府用途開發(fā)的算法,這樣整個社會能核實這些算法得到了正確的使用。

公開算法是否是一個適用于所有形式和用途的人工智能的解決方法?理論上確實如此,但這種方法在實際操作上存在明顯缺陷——畢竟,不是每個人都看得懂代碼。此外,企業(yè)和政府似乎都不是很情愿公開算法、用來訓練算法的數(shù)據(jù)或者從數(shù)據(jù)得出的推論。

理由很簡單。首先,暴露算法可能會使你喪失競爭優(yōu)勢。此外,公開算法可能會讓精通技術(shù)的人詳細了解決策過程,讓他們實際上擁有蒙騙系統(tǒng)的能力。

公開算法的接受度不高的另一個原因是,披露算法可能會暴露關(guān)于決策過程有效性和準確度的令人不快的真相。如果不對算法進行獨立審核,你可以繼續(xù)置身于幸福的無知境界,并且在面對負面后果的時候做出說得通的否認。

盡管法國政府在算法開放方面的積極做法可能在算法問責制上走得太遠,但是對算法進行獨立審核的理由是不言自明的。歐洲在設(shè)定人工智能戰(zhàn)略時,算法問責制(或者更準確地說是算法責任制)應該是一個關(guān)鍵考慮因素。政府和企業(yè)必須能夠證明,它們在把人工智能應用推向社會前,先進行了徹底的測試和外部審核。

驚嘆于算法對一個理論問題提出新穎的解決方法是一回事,對算法的糟糕決策在不經(jīng)意間毀了某人的人生感到意外就是另一回事了。

本文作者著有《數(shù)學殺傷性武器》(Weapons of Math Destruction)。Considerati的巴爾特•舍默爾(Bart Schermer)對此文有貢獻。

譯者/徐行

標簽: 代碼

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:基于Keras對深度學習模型進行微調(diào)的全面指南 Part 1

下一篇:斯坦福開源Weld:高效實現(xiàn)數(shù)據(jù)分析的端到端優(yōu)化