一、利用Robots.txt節(jié)省服務(wù)器帶寬
一般來(lái)說(shuō)站長(zhǎng)很少去做這樣一個(gè)設(shè)置,然而當(dāng)服務(wù)器訪問量大內(nèi)容過于多的話就有必要做一個(gè)設(shè)置來(lái)節(jié)省服務(wù)器的帶寬,如屏蔽:image這樣的文件夾,對(duì)于搜索引擎索引來(lái)說(shuō)沒有什么實(shí)際性的意義還浪費(fèi)了大量的帶寬。如果對(duì)于一個(gè)圖片網(wǎng)站來(lái)說(shuō),消耗更是驚人的,所以利用Robots.txt可以充分解決這一點(diǎn)。
二、保護(hù)網(wǎng)站安全目錄
一般來(lái)說(shuō)在設(shè)置Robots.txt時(shí)都要把管理目錄以及數(shù)據(jù)庫(kù)、備份目錄設(shè)置進(jìn)去,進(jìn)制蜘蛛的爬行,否則容易造成數(shù)據(jù)的泄露影響網(wǎng)站的安全。當(dāng)然還有一些管理員不希望蜘蛛索引的其他目錄,同樣可以將其進(jìn)行設(shè)置,這樣來(lái)說(shuō)搜索引擎就可以嚴(yán)格的遵守這個(gè)規(guī)則來(lái)進(jìn)行索引。
三、禁止搜索引擎索引頁(yè)面
一個(gè)網(wǎng)站總有一些不希望公眾看到的頁(yè)面,這個(gè)時(shí)候我們可以用Robots.txt來(lái)進(jìn)行設(shè)置,避免蜘蛛對(duì)其索引,如前段日子筆者網(wǎng)速比較慢結(jié)果更新了一篇文章,導(dǎo)致連續(xù)重復(fù)發(fā)布了3次,結(jié)果全部被搜索引擎索引,怎么辦呢?重復(fù)的內(nèi)容必然對(duì)網(wǎng)站優(yōu)化是不好的,這時(shí)候便可以通過設(shè)置Robots.txt來(lái)將多余的頁(yè)面屏蔽掉。
四、Robots.txt鏈接網(wǎng)站地圖
由于蜘蛛訪問網(wǎng)站首先查看的便是Robots.txt這個(gè)文件,那么我們可以將網(wǎng)站地圖設(shè)置進(jìn)去,更有利于蜘蛛索引最新的信息,而少走許多冤枉路。如顯示專業(yè)網(wǎng)站建設(shè)公司引航科技的地圖頁(yè):http://www.****.net.cn/ sitemap.xml這樣加到Robots.txt中更是有利于搜索引擎的索引。也不用每天麻煩的到搜索引擎提交地圖文件,不是很簡(jiǎn)便嗎?
五、寫法及注意事項(xiàng)
對(duì)于Robots.txt寫法一定要規(guī)范,寫法上疏忽不注意的人并不在少數(shù)。首先來(lái)說(shuō):User-agent:*是必須要寫的,*表示針對(duì)所有搜索引擎。Disallow:(文件目錄)不包括括號(hào),表示禁止搜索引擎索引的意思,一下舉個(gè)例子具體說(shuō)明:
示例1:
User-agent:*
Disallow:/
表示禁止任何搜索引擎索引訪問,
示例2:
User-agent:*
Disallow:/seebk
表示禁止搜索引擎索引訪問seebk目錄
示例3:
User-agent:baiduspider
User-agent:*
Disallow:/
表示只允許百度蜘蛛堆砌索引訪問:百度:baiduspider,谷歌:googlebot,搜搜:sosospider,alexa:ia_archiver,雅虎:Yahoo Slurp
示例4:
User-agent:*
Disallow:.jpg$
防止盜鏈jpg圖片,如果你的帶寬足夠的話可以不設(shè)置。
后語(yǔ):優(yōu)化Robots.txt揚(yáng)己之長(zhǎng)避己之短,做好Robots.txt更易網(wǎng)站順暢優(yōu)化發(fā)展