中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

搜索蜘蛛:什么是robots.txt,要怎么寫?

2019-03-08    來源:www.010wangzhanyouhua.com

容器云強勢上線!快速搭建集群,上萬Linux鏡像隨意使用

作為一名SEOer大家肯定是知道搜索蜘蛛的,但是關(guān)于robots.txt這個搜索蜘蛛遵循協(xié)議,卻鮮少有人談起,其實用好robots是很容易為你網(wǎng)站提權(quán)的,這里我不廢話了,直接說。

第一,用robots屏蔽網(wǎng)站重復(fù)頁

很多網(wǎng)站一個內(nèi)容提供多種瀏覽版本,雖然很方便用戶卻對蜘蛛造成了困難,因為它分不清那個是主,那個是次,一旦讓它認為你在惡意重復(fù),兄弟你就慘了

User-agent: *

Disallow: /sitemap/ 《禁止蜘蛛抓取 文本網(wǎng)頁》

第二,用robots保護網(wǎng)站安全

很多人納悶了,robots怎么還和網(wǎng)站安全有關(guān)系了?其實關(guān)系還很大,不少低級黑客就是通過搜索默認后臺登陸,以達到入侵網(wǎng)站的目標

User-agent: *

Disallow: /admin/ 《禁止蜘蛛抓取admin目錄下所有文件》

第三,防止盜鏈

一般盜鏈也就幾個人,可是一旦被搜索引擎“盜鏈”那家伙你100M寬帶也吃不消,如果你做的不是圖片網(wǎng)站,又不想被搜索引擎“盜鏈”你的網(wǎng)站圖片

User-agent: *

Disallow: .jpg$

第四,提交網(wǎng)站地圖

現(xiàn)在做優(yōu)化的都知道做網(wǎng)站地圖了,可是卻沒幾個會提交的,絕大多數(shù)人是干脆在網(wǎng)頁上加個鏈接,其實robots是支持這個功能的

Sitemap: http://www.010wangzhanyouhua.com/sitemaps/sitemaps_1.xml

第五,禁止某二級域名的抓取

一些網(wǎng)站會對VIP會員提供一些特殊服務(wù),卻又不想這個服務(wù)被搜索引擎檢索到

User-agent: *

Disallow: /

以上五招robots足以讓你對搜索引擎蜘蛛掌控能力提升不少,就像百度說的:我們和搜索引擎應(yīng)該是朋友,增加一些溝通,才能消除一些隔膜。

標簽: robots 網(wǎng)站地圖 網(wǎng)站安全 

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:如何在google adwords的廣告文字中添加地址擴展信息

下一篇:搜索引擎優(yōu)化的三重境界