中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

專訪數(shù)學(xué)家Hannah Fry:算法的時(shí)代,人類從未如此重要

2018-11-30    來(lái)源:raincent

容器云強(qiáng)勢(shì)上線!快速搭建集群,上萬(wàn)Linux鏡像隨意使用

 

編譯自紐約時(shí)報(bào)

編譯:DOnFJ、云舟

算法時(shí)代,似乎一切都可以有新的組織方式:有的算法能告訴我們讀什么書、跟誰(shuí)約會(huì),甚至告訴警察應(yīng)該逮捕哪個(gè)人。

一位名叫Hannah Fry的美女?dāng)?shù)學(xué)家,曾經(jīng)在TED用數(shù)學(xué)論證了《數(shù)學(xué)告訴你,完美伴侶如何選擇》,在她的演講中,數(shù)學(xué)可以為情感問(wèn)題提供一種有價(jià)值的全新視角:我們找到真愛(ài)的機(jī)率是多大?白頭偕老的機(jī)率又有幾成?網(wǎng)絡(luò)交友的真相是什么?什么時(shí)候該結(jié)婚?如何避免婚姻破裂?

最近,這位英國(guó)數(shù)學(xué)家在新作品《Hello World: Being Human in the Age of Algorithms(Hello World:在算法的時(shí)代里做個(gè)人類)》”一書中,帶我們進(jìn)入了算法的世界,并且拋給我們一個(gè)問(wèn)題:我們是不是在逐漸失去人性?

國(guó)家地理雜志的童鞋在其紐約簽售的時(shí)候?qū)ζ溥M(jìn)行了一次深入采訪。

過(guò)程中,F(xiàn)ry談到了很多業(yè)內(nèi)的大事件,比如為什么IBM的深藍(lán)(Deep Blue)下棋擊敗Gary Kasparov會(huì)是一個(gè)劃時(shí)代的標(biāo)志,司法系統(tǒng)的算法自帶的種族偏見(jiàn),以及為什么2016年的選舉應(yīng)該是民主的一記警鐘這些問(wèn)題。

 

 

Q:在這本書的開(kāi)篇你介紹了IBM的深藍(lán)在1997年擊敗象棋大師Gary Kasparov的故事。為什么你會(huì)覺(jué)得這是個(gè)大事件呢?

A:深藍(lán)贏了Gary Kasparov確實(shí)是個(gè)里程碑式的事件。當(dāng)時(shí)Gary是世界上最偉大的國(guó)際象棋選手。我跟很多國(guó)際象棋大師都聊過(guò)他,所有人都對(duì)他在象棋領(lǐng)域龍卷風(fēng)一樣的統(tǒng)治力大加評(píng)論,只要他走進(jìn)棋室,其他人都會(huì)嚇得貼著墻根站。

IBM設(shè)計(jì)了一臺(tái)會(huì)下棋的機(jī)器,在那個(gè)時(shí)代,很多人都想做出這么個(gè)東西來(lái),但都覺(jué)得這好像這超出了計(jì)算機(jī)的能力范圍,因?yàn)楫?dāng)時(shí)大家都還覺(jué)得計(jì)算機(jī)能對(duì)數(shù)據(jù)做個(gè)排序就很好了,能放個(gè)電影就覺(jué)得很好了,還要什么自行車。所以當(dāng)深藍(lán)獲勝的時(shí)候,所有觀眾都很愣了,徐徐起立,重新思考計(jì)算機(jī)到底能做什么,還有人類到底有什么特別的能力。

Kasparov輸了,其實(shí)并不是因?yàn)闄C(jī)器在下棋方面特別厲害。懂棋的大多數(shù)人都覺(jué)得那場(chǎng)比賽里Kasparov下的比深藍(lán)更好,他輸了的真正原因是他自亂陣腳。當(dāng)他發(fā)現(xiàn)這臺(tái)機(jī)器還行的時(shí)候,便開(kāi)始猜測(cè)這臺(tái)機(jī)器到底有多強(qiáng),胡思亂想就讓他心神不寧,最終導(dǎo)致了比賽的失利。

1997年的這個(gè)故事帶來(lái)的寓意在今天照樣適用。我們的社會(huì)正在伴隨著飛速的科技進(jìn)步,特別是人工智能機(jī)器學(xué)習(xí)領(lǐng)域。那么問(wèn)題來(lái)了,我們應(yīng)該多信任這些機(jī)器,我們應(yīng)該給它們多大的權(quán)力,以及如果信任錯(cuò)了,未來(lái)將會(huì)帶來(lái)什么樣的災(zāi)難。

Q:劍橋分析公司(Cambridge Analytica)和Facebook今年發(fā)布了一個(gè)消息。美國(guó)學(xué)者Kathleen Hall Jamieson說(shuō)他們和俄國(guó)人一起控制了特朗普的選舉,你對(duì)此怎么看?

A:科技公司早就知道用戶的數(shù)據(jù)是個(gè)大寶藏,能從里面獲取無(wú)限的利益。如果能夠了解客戶,這些科技公司就能估計(jì)出這個(gè)用戶要做什么,從而巧妙地操控他。這種事情在超市里面已經(jīng)應(yīng)用很多年了,但是Facebook能接觸到的不只是購(gòu)物習(xí)慣、購(gòu)物車這么簡(jiǎn)單的數(shù)據(jù)。在它的數(shù)據(jù)庫(kù)里我們一絲不掛,它知道我們的身份、我們喜歡什么,甚至是我們說(shuō)話的方式。不論誰(shuí)能接觸到這個(gè)數(shù)據(jù),都是不得了的大事情!

劍橋科技公司所做的是更往前走了一步,它找到了我們每個(gè)人的“類型”,了解我們害怕什么,我們恐懼什么,我們喜歡什么,并且據(jù)此為我們推送個(gè)性化的廣告,并試圖通過(guò)廣告來(lái)操控我們。很抽象?不理解?那舉個(gè)栗子:美國(guó)不禁槍大家都知道,而且步槍協(xié)會(huì)很強(qiáng)勢(shì),為了能在選舉中獲取更多的支持不被解散,他們瞄上了單身母親群體手里的選票。單身母親群體從本質(zhì)上來(lái)說(shuō)有些神經(jīng)過(guò)敏,可能潛在一種不安全感。

步槍協(xié)會(huì)便專門為單身母親推送那些有點(diǎn)讓他們害怕的廣告,比如先說(shuō)大半夜有人跑進(jìn)了你們家,而我可以提供給你保護(hù)房子的服務(wù)等。

當(dāng)然,這些廣告最后對(duì)于選舉的結(jié)果有沒(méi)有影響很難說(shuō),因?yàn)檫@些大型事件往往都是多方面共同促使的。但是當(dāng)時(shí)大選那么緊湊,特朗普在一些洲里以幾千票獲勝,我覺(jué)得這也是有可能的。通過(guò)算法操控民主確實(shí)是一個(gè)值得擔(dān)心的事兒,但我們還是要關(guān)心一下這些算法現(xiàn)在到底有什么能力,到底能不能潛移默化的操控民主。

現(xiàn)在新聞中有很多無(wú)人駕駛的新聞。自動(dòng)駕駛的一個(gè)挑戰(zhàn)是怎么讓車子不止觀察路況正常行駛,而是像人類一樣感知周圍,并且做出“富有同情心”的決定。你覺(jué)得自動(dòng)駕駛有可能實(shí)現(xiàn)這個(gè)目標(biāo)嗎?

技術(shù)上來(lái)說(shuō)沒(méi)問(wèn)題。但是這個(gè)問(wèn)題其實(shí)涉及到倫理學(xué)上一個(gè)難題,叫“電車難題(trolley problem)”。這個(gè)難題大概的意思是說(shuō)無(wú)人駕駛車正在往前跑,突然前面發(fā)現(xiàn)一輛大貨車正在卸貨呢,眼瞅著就要撞上。這時(shí)候你有兩個(gè)選擇,要不就直接往前走,貨車司機(jī)就被撞上了,要不就打方向盤,把旁邊的行人卷進(jìn)去。

 

 

這完全是個(gè)倫理道德問(wèn)題。這種問(wèn)題的頭疼之處就在于它并沒(méi)有正確的答案,也沒(méi)有簡(jiǎn)單的邏輯來(lái)說(shuō)孰對(duì)孰錯(cuò)。所以我覺(jué)得我們每個(gè)人對(duì)于自動(dòng)駕駛的這種倫理道德問(wèn)題都沒(méi)有統(tǒng)一的答案。

Q:現(xiàn)在一些算法被廣泛應(yīng)用到了司法系統(tǒng)的決策里,這對(duì)于很多讀者(包括我)來(lái)說(shuō)都很驚訝。想問(wèn)一下你,機(jī)器學(xué)習(xí)算法能幫助修正人類的偏差嗎?

A:其實(shí)算法已經(jīng)在法庭上用了很久了,最早可以追溯到20世紀(jì)30年代。當(dāng)時(shí)的那些算法是想預(yù)測(cè)一個(gè)罪犯是否還會(huì)繼續(xù)犯罪。不論喜不喜歡、愿不愿意,法官必須要給法庭上的罪犯下個(gè)定義,預(yù)測(cè)他被釋放之后會(huì)不會(huì)再犯罪。而且確實(shí)有的算法就是比人的預(yù)測(cè)更準(zhǔn)確。

2017年的時(shí)候,Propublica.com的調(diào)查記者發(fā)布了一個(gè)重大的新聞報(bào)道。報(bào)道中說(shuō)他們?cè)囉昧艘环N算法,并且發(fā)現(xiàn)算法有種族主義。他們表示,黑人被告被誤分類為犯罪的風(fēng)險(xiǎn)要高于白人。

醫(yī)學(xué)領(lǐng)域現(xiàn)在也逐漸應(yīng)用了機(jī)器學(xué)習(xí)算法,能不能跟我們討論一些算法和醫(yī)學(xué)倫理方面的案例。

先說(shuō)個(gè)算法在醫(yī)學(xué)領(lǐng)域正面的例子,癌癥診斷。診斷不是開(kāi)處方,沒(méi)有給算法過(guò)多的權(quán)利,它就是看一些醫(yī)學(xué)圖像,然后判斷這個(gè)圖片里面是否隱藏著微小的腫瘤組織。這個(gè)算法很成功。

還有別的診斷中的算法例子。比如在英國(guó)曝光率很高的一個(gè)app,叫Babylon Health,它能幫助國(guó)家健康服務(wù)組織(National Health Service)簡(jiǎn)化診斷過(guò)程。用戶只要登錄后打開(kāi)聊天窗口,然后算法就能根據(jù)你的病情返回一些建議和信息,然后把你的詢問(wèn)內(nèi)容過(guò)濾一下發(fā)送給醫(yī)護(hù)人員。

這聽(tīng)起來(lái)有點(diǎn)科幻,因?yàn)椴恢皇俏鞣降陌l(fā)達(dá)國(guó)家想要這樣便宜和方便的服務(wù),很多發(fā)展中國(guó)家更需要它們。但是有一個(gè)小問(wèn)題,就是這些技術(shù)可能沒(méi)有他們宣稱的那么好。它還是會(huì)犯很多錯(cuò)誤。比如有一次有個(gè)人打開(kāi)Babylon的聊天框說(shuō),他的肘部受傷了,結(jié)果莫名其妙的算法就診斷說(shuō)他生殖器周圍發(fā)紅充血(redness around the genitals)。哈哈,這個(gè)算法也真是拔牙傷到前列腺了。所以網(wǎng)上有著各種各樣的段子,調(diào)侃這些人工機(jī)器人是怎么鬧笑話和開(kāi)車的。

事實(shí)上,世界上最隱私的數(shù)據(jù)就是你的醫(yī)療數(shù)據(jù)了,特別是DNA。所有的算法都要大量的數(shù)據(jù)才能工作。但問(wèn)題是誰(shuí)有你的醫(yī)療數(shù)據(jù),即便有了數(shù)據(jù),又有哪個(gè)人愿意讓自己這么隱私的數(shù)據(jù)暴露出去?就現(xiàn)在而言,我們還不能去除隱私問(wèn)題所導(dǎo)致的惡果,也未能妥善保護(hù)每個(gè)人的隱私。

除了這些好的例子,你的書里面還有很多不好的、帶來(lái)傷害的例子~來(lái)跟我們分享一些吧。

當(dāng)給算法的權(quán)力太大時(shí)就會(huì)發(fā)生傷害。我們回到法庭上算法的例子,這些算法有些歧視和偏見(jiàn),最終會(huì)導(dǎo)致犯下錯(cuò)誤。一個(gè)例子是一位名叫Christopher Drew Brooks的年輕人。他來(lái)自弗吉尼亞州,19歲,是個(gè)帥小伙,他被法庭判定強(qiáng)奸一名14歲的女孩。但事實(shí)上他們是自愿的,沒(méi)有強(qiáng)迫。不過(guò)盡管如此,由于女方未成年,所以小哥被定罪。在他的審判期間,法庭用算法評(píng)估了他再犯的可能性。由于他只有19歲(年輕氣盛),并且已經(jīng)犯下了性犯罪,因此算法的結(jié)果是:他很有可能再次犯罪,并且建議給他18個(gè)月監(jiān)禁。

從這個(gè)例子里我們看出來(lái),這個(gè)算法很不合邏輯。年齡因素對(duì)算法有很大的影響。如果Christopher Drew Brooks已經(jīng)36歲了,在這種情況下他比受害者大了22歲,那么從人類的角度來(lái)看這種行為會(huì)更加惡劣。

但是,算法會(huì)認(rèn)為他再犯的風(fēng)險(xiǎn)很低,從而會(huì)讓他避免牢獄之災(zāi)。大家可能希望看到法官覺(jué)得這算法有問(wèn)題,決策明顯不對(duì),從而不聽(tīng)從它的意見(jiàn)而是靠著人類的直覺(jué)修正判決。但是很可惜,這種情況并沒(méi)有發(fā)生。如此看來(lái),這位小哥的例子更加印證了我們的說(shuō)法。這就是問(wèn)題所在,算法會(huì)犯錯(cuò),并且會(huì)產(chǎn)生災(zāi)難性的錯(cuò)誤。如果人類沒(méi)有對(duì)其進(jìn)行監(jiān)督和最后的把關(guān),而是給了它絕對(duì)的權(quán)利,麻煩將接踵而至。

Q:你在本書的結(jié)尾寫道:“在算法的時(shí)代里,人類從未如此的重要”。向我們來(lái)解釋一下這句話和我們可能面臨的問(wèn)題吧。

A:其實(shí),這不是一本關(guān)于算法的書,這是一本關(guān)于人類的書。這是關(guān)于我們?cè)趺慈ト谌胛磥?lái),技術(shù)如何改變我們聊天的方式、民主、醫(yī)療、警務(wù)和正義的書。在算法的時(shí)代,一切都在變化,這本書中講述的是我們?nèi)绾慰刂谱约旱奈磥?lái),也是一本決定我們應(yīng)該放棄哪些權(quán)力的書。它告訴我們?nèi)绾巫屓祟惒槐粧仐墶?/p>

書中討論的不是人和機(jī)器的關(guān)系,更多的是關(guān)于人與機(jī)器的合作,接受彼此之間的缺點(diǎn)。人類有局限,機(jī)器也會(huì)犯錯(cuò)誤,那這種關(guān)系如何延續(xù),如何發(fā)展,如何揚(yáng)長(zhǎng)避短共同攜手進(jìn)入并引領(lǐng)一個(gè)新的時(shí)代,才是這本書的內(nèi)核。

相關(guān)報(bào)道:

https://www.nationalgeographic.co.uk/science-and-technology/2018/11/computers-tell-us-who-date-and-who-jail-right

標(biāo)簽: 安全 數(shù)據(jù)庫(kù) 網(wǎng)絡(luò)

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請(qǐng)與原作者聯(lián)系。

上一篇:DeepMind推出深度學(xué)習(xí)與強(qiáng)化學(xué)習(xí)進(jìn)階課程(附視頻)

下一篇:在數(shù)據(jù)采集器中用TensorFlow進(jìn)行實(shí)時(shí)機(jī)器學(xué)習(xí)