中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

網(wǎng)站優(yōu)化中應(yīng)減少重復(fù)內(nèi)容讓蜘蛛愛不釋手

2019-03-08    來源:www.zzxing.net

容器云強(qiáng)勢上線!快速搭建集群,上萬Linux鏡像隨意使用

重復(fù)內(nèi)容通常是指域內(nèi)或多個(gè)域之間存在的、與其他內(nèi)容完全匹配或大致類似的內(nèi)容。也就是說一個(gè)網(wǎng)站中可能存在許多重復(fù)的頁面,比如內(nèi)容頁、產(chǎn)品的搜索列表頁、不同的url指向同一頁面等,這就都是屬于重復(fù)范圍。表面看起來沒什么關(guān)系,對(duì)網(wǎng)站無害。但對(duì)蜘蛛而言就是滅頂之災(zāi)。當(dāng)然大多數(shù)情況下也不是故意的頁面重復(fù).

能夠生成用于移動(dòng)設(shè)備的常規(guī)和簡化網(wǎng)頁的論壇

通過多個(gè)不同網(wǎng)址顯示或鏈接的存儲(chǔ)項(xiàng)目

網(wǎng)頁的可打印版本

URL的重復(fù)

不同url指向同一頁面,這個(gè)也算重復(fù)頁面。蜘蛛爬行是按照鏈接來爬行的,在爬行之前蜘蛛并不知道這些不同的url指向同一個(gè)頁面。它會(huì)慢慢的去爬行,爬過之后才會(huì)知道竟然是重復(fù)的頁面,在進(jìn)行相應(yīng)的處理,表面上看起來也是沒有什么問題。實(shí)際上蜘蛛已經(jīng)花了相當(dāng)大的力氣來解析這幾個(gè)重復(fù)的url,這就等于是寬帶的浪費(fèi)一樣。

http://www.***.net/

***.net

http://www.***.net/index.html

訪問的都是首頁,何不如我們做做好事,用301重定向把他轉(zhuǎn)到指定的url。

筆者選擇http://www.***.net/這個(gè)地址,采用Apache服務(wù)器設(shè)置方法是,在.htaccess文件中加入以下代碼

RewriteEngine on

RewriteCond %{http_host} ^***.net[NC]

RewriteRule ^(.*)$ http://www.***.net/$1 [L,R=301]

RewriteEngine on

RewriteCond %{http_host} ^http://www.***.net/index.html [NC]

RewriteRule ^(.*)$ http://www.***.net/$1 [L,R=301]

詳細(xì)方法請查看百度百科里的詳細(xì)介紹http://baike.baidu.com/view/2173220.htm

打印文本的重復(fù)

一般網(wǎng)站都會(huì)有一個(gè)可供瀏覽的頁面,還有一個(gè)可以打印的文本。這個(gè)打印文本一般是看不出來的,只有需要打印才能看到文本,但內(nèi)容都和頁面文本一樣,這就形成了和網(wǎng)頁文本的重復(fù)。對(duì)用戶無所謂,但對(duì)蜘蛛就不一樣了。我們應(yīng)該避免這個(gè)情況出現(xiàn),解決方法是用robots.txt來禁止蜘蛛抓取打印文本。

底部版權(quán)的重復(fù)

每個(gè)網(wǎng)站都有自己的版權(quán)說明,有的網(wǎng)站在底部些了很多關(guān)于版權(quán)方面的文字,非常的多。其實(shí)這個(gè)完全沒有必要?纯词艠堑撞堪鏅(quán)如何

非常的清晰明了,把一切關(guān)于版權(quán),公司動(dòng)態(tài),法律聲明的東西都放到一個(gè)獨(dú)立頁面去,只用文本鏈接過去。這樣也大大降低了樣板文字的重復(fù)度。

404頁面的重復(fù)

一個(gè)大型網(wǎng)站無可厚非有很多404頁面。但這些404頁面也是一種資源上的重復(fù)。最好是用robots.txt來禁止抓取。

網(wǎng)站搜索的重復(fù)

現(xiàn)在的網(wǎng)站都有一個(gè)用戶喜歡的工具,那就是網(wǎng)站搜索條。對(duì)用戶而言能更快的找到自己想要的內(nèi)容,但對(duì)蜘蛛不是這么回事,也會(huì)增加重復(fù)度,所以也要屏蔽它。

一般可以在robots.txt文件里加入Disallow: /search.php$(/search.php)文件要根據(jù)你網(wǎng)站系統(tǒng)來定,也就是你網(wǎng)站搜索采用哪個(gè)文件來執(zhí)行搜索的)

Robots.txt文件的應(yīng)用

我發(fā)現(xiàn)好多可以禁止重復(fù)頁面的方法都可以用robots.txt文件來解決,所以我們一定要掌握robots.txt使用的正確方法,發(fā)揮它強(qiáng)大的威力。

百度robots.txt說明 http://www.baidu.com/search/robots.html

不管是做seo還是做網(wǎng)站,每一個(gè)細(xì)節(jié)都是決定成敗的關(guān)鍵,你比別人多付出一點(diǎn),你就可以穩(wěn)操勝券。重復(fù)頁面對(duì)蜘蛛而言非常的耗時(shí)耗力,我們也該為蜘蛛減減壓了。

本文首發(fā)地址周振興的seo推廣博客:http://www.zzxing.net/seo-jishu/robots-seo/(轉(zhuǎn)載請保留)

標(biāo)簽: SEO 網(wǎng)站優(yōu)化 robots.txt 

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點(diǎn)!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:實(shí)戰(zhàn)discuz論壇程序seo優(yōu)化

下一篇:如何在百度知道和搜搜問問里增加外鏈