中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

Web 2.0 峰會:Google 與 Wikipedia 談垃圾過濾

2019-03-05    來源:Chinaz用戶投稿

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

核心提示:鏈接難免遇到垃圾信息。Spammer 們用來推廣站點垃圾,一些老CMS 系統(tǒng)中發(fā)現(xiàn)漏洞將垃圾信息注入受害者網(wǎng)站。

在好萊塢如果你被狗仔隊盯上上,說明你是成功的,在硅谷,如果你被垃圾信息盯上,也說明你是成功的。周三上午,在 Web 2.0 峰會( Web 2.0 Summit),來自 Google, Reddit, Pramana 以及 Wikipedia 的代表暢談了如何抵制垃圾信息。

 

 

Google 的反垃圾信息團隊的主管 Matt Cutts 說,如果你提供鏈接相關的服務,就難免遇到垃圾信息。Cutts 談到了3種類型的垃圾信息,Spammer 們用來推廣站點的垃圾鏈接;向那些允許用戶提供反饋的網(wǎng)頁提交垃圾內容;從一些老的 CMS 系統(tǒng)中發(fā)現(xiàn)漏洞將垃圾信息注入受害者網(wǎng)站。

針對垃圾信息,Cutts 建議使用 Akismet 一類的信息過濾服務,部署 CAPTCHA,勤打補丁,甚至對注冊收費等手段進行應對。他建議人們跳出思維圈子,使用一些意料不到的方式對付垃圾信息。如果你讓垃圾信息發(fā)布者產生挫敗感,比向他們收費還有效。

Reddit 的創(chuàng)始人 Steve Huffman 談到了他們使用的一些方法,對垃圾信息發(fā)送者進行誤導。他表示,Reddit 是一種類似 Digg 但比 Digg 更好的服務,Digg 允許用戶提交他們喜歡的內容的鏈接,并對發(fā)布的內容進行投票,獲得投票數(shù)越多的內容被閱讀的幾率越大。

但 Reddit 有所不同,在 Reddit,有些投票不被計算。一旦 Reddit 探測出某人是在發(fā)送垃圾信息,他的帳戶會被抵制,但 Reddit 不會通知發(fā)垃圾信息的人,他的提交還正常進行,但他提交的內容不會發(fā)布。Huffman 表示,我們使用一些技巧讓垃圾信息發(fā)送者以為他們的伎倆得逞。

Jonathan Hochman 是 Wikipedia 的管理員,他談到了 Wikipedia 應對垃圾信息和蓄意破壞時使用的一些策略。他說,我們花費了很多時間讓 Wikipedia 保持干凈。Wikipedia 中 20% 到 30% 的編輯操作是蓄意破壞以及對蓄意破壞的修復。

Wikipedia 是一個允許任何人參與編纂的在線百科全書,但少為人知的是,這個站點依靠的是計算機自動編輯,Hochman 解釋道,一些自動程序參與了編輯工作。

比如 ClueBot,它參與了大約80萬篇文章的編輯,ClueBot 做了大量文章復原與修復工作,如果有人不斷地對某個頁面進行破壞,它會通知人進行干預。

Praman 的 CEO Sanjay Sehgal 則講述了他們的 HumanPresent 技術,該技術用來保護他們剛剛發(fā)布的,尚未命名的海量玩家游戲,他說,CAPTCHA 不起作用,因為很容易被破解。

Pramana 的技術會嘗試辨別真正的用戶與自動程序。一個游戲中有太多機器人玩家會讓游戲崩潰。這個技術不僅僅用于阻止 Spam,還幫助改善用戶體驗,提供流量數(shù)據(jù)。自從使用了 HumanPresent 技術,Pramana 發(fā)現(xiàn) 12% 到 15% 的流量來自機器人程序。

來源:informationweek.com  翻譯:COMSHARP CMS (銳商企業(yè)CMS)官方網(wǎng)站

標簽: 漏洞 色情 垃圾 

版權申明:本站文章部分自網(wǎng)絡,如有侵權,請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:搜索引擎排名算法與因素

下一篇:谷歌搜索排名三大算法原則和十七個注意點