中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

不公正的AI算法,在質(zhì)疑中邁向透明化

2018-09-21    來源:raincent

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

AI算法頻遭質(zhì)疑

9月6日中午,作家六六在繼炮轟京東后,再一次炮轟百度:“在百度上就查一個上海美國領(lǐng)事館官網(wǎng)的地址,翻了多少個都是騙子廣告”,并@李彥宏:“你是做搜索引擎還是做騙子首領(lǐng)?”微博發(fā)出后,迅速上了熱搜榜,百度也立即給出回應(yīng):搜索是復(fù)雜算法,每個用戶對信息的需求不同,搜索引擎受算法的影響,給出的結(jié)果也會不一樣。

與此同時,美國東部時間9月5日,F(xiàn)acebook COO 桑德伯格和Twitter CEO多西被要求參與了美國參議院情報委員會的聽證會。除此之外,多西還單獨出席了美國能源和商務(wù)委員會的聽證會。他們就諸如“為什么共和黨議員在搜索中排名靠后?”或者“為什么廣告被惡意利用?”等問題被要求解答。以“搜索排名”為例,多名議員質(zhì)疑,在直接搜索議員名字時,搜索結(jié)果沒有顯示出正確的賬號,這是因為Twitter在背后搗鬼。面對有關(guān)“熱門話題”和“搜索排名”等存在偏見問題的質(zhì)疑,兩家公司的高管都表示:這不是我們存在偏見,而是我們的AI算法出錯了。

 

 

上述一系列事件,實際上都引申出了一個更具有爭議的問題:AI 算法的透明度。AI算法或者說神經(jīng)網(wǎng)絡(luò)的結(jié)果到底是不是足夠透明、公平可知并且毫無偏好的?

人工神經(jīng)網(wǎng)絡(luò)優(yōu)勢助其廣泛應(yīng)用

目前絕大部分AI算法,都是基于人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,即ANN)來構(gòu)建的。人工神經(jīng)網(wǎng)絡(luò)是由大量處理單元互聯(lián)組成的非線性、自適應(yīng)信息處理系統(tǒng)。它是在現(xiàn)代神經(jīng)科學(xué)研究成果的基礎(chǔ)上提出的,試圖通過模擬大腦神經(jīng)網(wǎng)絡(luò)處理、記憶信息的方式進行信息處理。人工神經(jīng)網(wǎng)絡(luò)具有四個基本特征:

非線性,非線性關(guān)系是自然界的普遍特性;

非局限性,一個神經(jīng)網(wǎng)絡(luò)通常由多個神經(jīng)元廣泛連接而成;

非常定性,人工神經(jīng)網(wǎng)絡(luò)具有自適應(yīng)、自組織、自學(xué)習(xí)能力;

非凸性,非凸性是指這種函數(shù)有多個極值,故系統(tǒng)具有多個較穩(wěn)定的平衡態(tài),這將導(dǎo)致系統(tǒng)演化的多樣性。

ANN有一些關(guān)鍵優(yōu)勢,使它們最適合某些問題和情況:

有能力學(xué)習(xí)和構(gòu)建非線性的復(fù)雜關(guān)系的模型,這非常重要,因為在現(xiàn)實生活中,許多輸入和輸出之間的關(guān)系是非線性的、復(fù)雜的;

可以推廣,在從初始化輸入及其關(guān)系學(xué)習(xí)之后,它也可以推斷出從未知數(shù)據(jù)之間的未知關(guān)系,從而使得模型能夠推廣并且預(yù)測未知數(shù)據(jù);

可以更好地模擬異方差性,即具有高波動性和不穩(wěn)定方差的數(shù)據(jù),因為它具有學(xué)習(xí)數(shù)據(jù)中隱藏關(guān)系的能力,而不在數(shù)據(jù)中強加任何固定關(guān)系。

ANN在圖像和字符識別中起著重要的作用,廣泛應(yīng)用于社交媒體中的面部識別,醫(yī)學(xué)上的癌癥治療的停滯以及農(nóng)業(yè)和國防用途的衛(wèi)星圖像處理。目前,神經(jīng)網(wǎng)絡(luò)的研究為深層神經(jīng)網(wǎng)絡(luò)鋪平了道路,是“深度學(xué)習(xí)”的基礎(chǔ),現(xiàn)已在計算機視覺、語音識別、自然語言處理等方向開創(chuàng)了一系列令人激動的創(chuàng)新,比如,無人駕駛汽車。同樣在醫(yī)藥、安全、銀行、金融、政府、農(nóng)業(yè)和國防等領(lǐng)域有著廣泛的應(yīng)用,例如經(jīng)濟和貨幣政策、金融和股票市場、日常業(yè)務(wù)決策上,都可以提供強大的替代方案。

“黑箱”性質(zhì)和易受操控的特點帶來擔(dān)憂

但是ANN也不是大家想象的那么完美。在控制論中,通常把所不知的區(qū)域或系統(tǒng)稱為“黑箱”,一般來講,在社會生活中廣泛存在著不能觀測卻可以控制的“黑箱”問題。神經(jīng)網(wǎng)絡(luò)最廣為人知的缺點是“黑箱”性質(zhì),這意味著你雖然可以控制神經(jīng)網(wǎng)絡(luò)的結(jié)果,但是并不知道神經(jīng)網(wǎng)絡(luò)如何以及為何會得出一定的輸出。例如,當(dāng)你將一張貓的圖像輸入神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)預(yù)測這是汽車時,很難理解為什么會導(dǎo)致它產(chǎn)生這個預(yù)測。當(dāng)你有可解釋的特征時,就能更容易的理解其錯誤的原因,顯然神經(jīng)網(wǎng)絡(luò)并不能滿足。

 

 

在某些領(lǐng)域可解釋性至關(guān)重要,這就是為什么許多銀行不使用神經(jīng)網(wǎng)絡(luò)來預(yù)測客戶是否有信用,因為他們需要向客戶解釋為什么他們無法獲得貸款。否則用戶會產(chǎn)生誤解和不滿,因為他不明白為什么自己無法獲得貸款。像Facebook這樣的網(wǎng)站也是如此。如果他們通過算法決定刪除某個用戶的帳戶,他們需要向用戶解釋當(dāng)中的原因。如果僅僅說”這是計算機的決定”,這樣的答案是不盡人意的。制定重要的商業(yè)決策時也是如此。你能想象大公司的CEO在做出關(guān)于數(shù)百萬美元的決定,而不探究當(dāng)中的原因,僅僅因為計算機的決策嗎?

除此之外,神經(jīng)網(wǎng)絡(luò)很容易被人為選擇后的數(shù)據(jù)影響決策,同時通過這些決策對人類產(chǎn)生潛移默化的改造。最典型的的例子就是Tay。Tay是微軟2016年在Twitter上推出的智能聊天機器人,最初設(shè)定Tay是一個年齡19歲的少女,具有一些幽默機制,適合和18至24歲的用戶聊天。然而僅上線一天,Tay就開始有一些種族歧視之類的偏激言論,微軟不得不緊急關(guān)閉了Tay的Twitter賬號。

Tay的設(shè)計原理是從對話交互中進行學(xué)習(xí)。于是一些網(wǎng)友開始和Tay說一些偏激的言論,刻意引導(dǎo)她模仿。人工智能沒有分辨是非的能力,這些話語被無數(shù)次重復(fù)后就成了Tay的“彈藥庫”。整個過程就像小魚兒被十大惡人撫養(yǎng),手把手教導(dǎo)各種旁門左道之術(shù)。人工智能的大規(guī)模并發(fā)性,讓她的學(xué)習(xí)速度比人類快了無數(shù)倍。所以從誕生到變成滿嘴臟話的不良少女,Tay僅用了一天。

同樣在AI眼中,我們?nèi)祟愐膊皇亲盥斆鞯撵`長類動物。在AI看來,人類只是由0和1組成的數(shù)字集合,而且非常容易被干預(yù)和影響,很容易就從這串字符串變成那串字符串。因為人類需要通過信息建立認(rèn)知,確立價值觀。只要控制了人類能夠接觸到的信息,就能影響其認(rèn)知,最后導(dǎo)致機器學(xué)習(xí)不是讓機器學(xué)習(xí),而是讓人類“學(xué)習(xí)”。此前,F(xiàn)acebook泄密影響美國大選的事情曾被炒得沸沸揚揚,目前的證據(jù)來看,就是一家名為劍橋分析的數(shù)據(jù)公司竊取了5000萬Facebook用戶資料,根據(jù)每個用戶的日常喜好、性格特點、教育水平,預(yù)測他們的政治傾向,進行新聞的精準(zhǔn)推送,達(dá)到洗腦的目的,間接促成了特朗普當(dāng)選。

文章開頭提到的美國參議院情報委員會的聽證會,谷歌首席法務(wù)官、全球政策高級副總裁 Kent Walker也曾參會。他在聽證會之前提交了公開證詞。據(jù)美國媒體的報道,該證詞概述了谷歌針對政治廣告披露的新指導(dǎo)方針,并指出谷歌將繼續(xù)刪除試圖誤導(dǎo)用戶的不良信源,如克里姆林宮附屬的互聯(lián)網(wǎng)研究機構(gòu)。

解決AI算法透明度之路任重道遠(yuǎn)

在如何解決AI算法透明度的問題上,曾經(jīng)有兩個想法非常受歡迎。

第一個想法:“算法透明度”——要求公司披露其AI系統(tǒng)中使用的源代碼和數(shù)據(jù)。

不久前紐約市長de Blasio就曾宣布成立美國第一個監(jiān)測和評估算法使用的特別工作組。但是這個想法實施之后面臨著許多問題。因為絕大部分的AI系統(tǒng)太過復(fù)雜,僅通過查看源代碼是無法完全理解的。而且要求商業(yè)公司披露源代碼會降低他們投資開發(fā)新算法的動力,事實上競爭對手很容易根據(jù)其源代碼進行山寨。

另一個想法:“算法可解釋性”——將要求公司向消費者解釋他們的算法如何做出決策。

今年5月歐盟就制定了全面的新數(shù)據(jù)保護規(guī)則,出臺《通用數(shù)據(jù)保護條例》要求公司能夠向消費者解釋所有自動化決策。但是算法的準(zhǔn)確性通常隨其復(fù)雜性而變化,所以算法越復(fù)雜,解釋就越困難,實現(xiàn)它可能需要讓AI人為地變蠢。機器學(xué)習(xí)有如此強大的使用前景,縮減AI的能力可能意味著無法診斷疾病、無法發(fā)現(xiàn)氣候變化的重要原因等等。

這兩個最受歡迎的想法——要求公司披露算法源代碼并解釋它們?nèi)绾巫龀鰶Q策以及通過規(guī)范商業(yè)模式和內(nèi)部運作,會導(dǎo)致弊大于利,并不能讓這些公司對結(jié)果負(fù)責(zé)。在應(yīng)對算法透明度問題上,一個更為可行的建議被提了出來:算法問責(zé)制。

這個建議提倡政策制定者不應(yīng)該要求公司披露他們的源代碼或限制他們可以使用的算法類型,而是應(yīng)該堅持算法問責(zé)制——算法系統(tǒng)應(yīng)采用各種控制措施來確保運營商(即負(fù)責(zé)部署算法的一方)可以驗證它是否按預(yù)期運行,并確定和糾正有害后果的原則。圍繞算法問責(zé)制構(gòu)建的政策框架將具有幾個重要好處。首先,它會使運營商對其算法可能造成的任何危害負(fù)責(zé),而不是開發(fā)人員。其次,讓運營商對結(jié)果而不是算法的內(nèi)部運作負(fù)責(zé),可以讓他們專注于確保算法不會造成傷害的最佳方法,諸如信心措施,影響評估或程序規(guī)律等。

當(dāng)然,這并不是說透明度和可解釋行就沒有它們的位置。例如,透明度要求對刑事司法系統(tǒng)中的風(fēng)險評估算法來說是有意義的。同樣無論公司是否使用AI來做出決策,消費者仍然有權(quán)獲得這些解釋。

規(guī)范制度才能適應(yīng)未來趨勢

總結(jié)目前AI算法的發(fā)展歷程,智能算法大大提升了用戶接收、選擇信息的速度,但也可能讓一個人的視野變窄,甚至直接影響人們的決策。

 

 

那是不是AI算法存在這么多問題,我們就需要避之不及,完全不用它呢?當(dāng)然不是。AI算法只是一種工具,工具與生俱來就具有兩面性,無論是火藥、核能還是網(wǎng)絡(luò),若使用不當(dāng),都容易帶來各種問題,最終決定權(quán)掌握在人類手里。算法推送帶來種種不良現(xiàn)象的“鍋”,不應(yīng)該都讓技術(shù)來背。相關(guān)法律規(guī)范的不健全,有關(guān)崗位工作人員對管控責(zé)任的認(rèn)識不足,再加上大數(shù)據(jù)時代信息的迅猛浪潮,都容易使真正有用的高質(zhì)量信息淹沒在繁雜的信息海洋中。

算法推送、個性化定制是未來的趨勢,一方面可以實現(xiàn)需與求的精準(zhǔn)對接,另一方面也實現(xiàn)了資源的最大化利用。我們可以調(diào)整推送權(quán)重的分配,比如系統(tǒng)算法占60%,用戶選擇占40%:即用戶可以自己定制或者屏蔽關(guān)鍵詞、可以自己決定信息排序,當(dāng)然也可以選擇系統(tǒng)默認(rèn)。技術(shù)可能帶來一些壁壘,但人卻可以突破這樣的壁壘,讓技術(shù)更好地為自己服務(wù)。

希望各方面加強合作,創(chuàng)造天朗氣清的網(wǎng)絡(luò)世界。合理利用技術(shù)跟算法,讓AI技術(shù)服務(wù)社會、凈化心靈、啟迪智慧,創(chuàng)造和諧、健康、正能量的網(wǎng)絡(luò)環(huán)境和現(xiàn)實世界,這才是我們真正該尋求的正確“算法”。

標(biāo)簽: 安全 大數(shù)據(jù) 大數(shù)據(jù)時代 代碼 谷歌 互聯(lián)網(wǎng) 金融 媒體 排名 搜索 搜索引擎 推廣 網(wǎng)絡(luò)

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:經(jīng)濟學(xué)人:被數(shù)據(jù)和算法重塑的線上約會,或許比非誠勿擾靠譜

下一篇:使用Apache Kafka和KSQL實現(xiàn)流處理普及化——第二部分