當(dāng)前位置:首頁(yè) >  站長(zhǎng) >  搜索優(yōu)化 >  正文

robots的規(guī)則協(xié)議和基本寫法

 2015-05-13 21:51  來(lái)源: 互聯(lián)網(wǎng)   我來(lái)投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競(jìng)價(jià),好“米”不錯(cuò)過(guò)

一、robots基本概念

robots.txt文件是網(wǎng)站的一個(gè)文件,它是給搜索引擎蜘蛛看的。搜索引擎蜘蛛爬行道我們的網(wǎng)站首先就是抓取這個(gè)文件,根據(jù)里面的內(nèi)容來(lái)決定對(duì)網(wǎng)站文件訪問(wèn)的范圍。它能夠保護(hù)我們的一些文件不暴露在搜索引擎之下,從而有效的控制蜘蛛的爬取路徑,為我們站長(zhǎng)做好seo創(chuàng)造必要的條件。尤其是我們的網(wǎng) 站剛剛創(chuàng)建,有些內(nèi)容還不完善,暫時(shí)還不想被搜索引擎收錄時(shí)。

幾點(diǎn)注意:

網(wǎng)站必須要有一個(gè)robot.txt文件。

robots.txt文件應(yīng)該放置在網(wǎng)站根目錄下

文件名是小寫字母。

當(dāng)需要完全屏蔽文件時(shí),需要配合meta的robots屬性。

二、robots.txt的基本語(yǔ)法

內(nèi)容項(xiàng)的基本格式:鍵: 值對(duì)。

1) User-Agent鍵

后面的內(nèi)容對(duì)應(yīng)的是各個(gè)具體的搜索引擎爬行器的名稱。如百度是Baiduspider,谷歌是Googlebot。

一般我們這樣寫:

User-Agent: *

表示允許所有搜索引擎蜘蛛來(lái)爬行抓取。如果只想讓某一個(gè)搜索引擎蜘蛛來(lái)爬行,在后面列出名字即可。如果是多個(gè),則重復(fù)寫。

注意:User-Agent:后面要有一個(gè)空格。

在robots.txt中,鍵后面加:號(hào),后面必有一個(gè)空格,和值相區(qū)分開(kāi)。

2)Disallow鍵

該鍵用來(lái)說(shuō)明不允許搜索引擎蜘蛛抓取的URL路徑。

例如:Disallow: /index.php 禁止網(wǎng)站index.php文件

Allow鍵

該鍵說(shuō)明允許搜索引擎蜘蛛爬行的URL路徑

例如:Allow: /index.php 允許網(wǎng)站的index.php

通配符*

代表任意多個(gè)字符

例如:Disallow: /*.jpg 網(wǎng)站所有的jpg文件被禁止了。

結(jié)束符$

表示以前面字符結(jié)束的url。

例如:Disallow: /?$ 網(wǎng)站所有以?結(jié)尾的文件被禁止。

三、robots.txt實(shí)例分析

例1. 禁止所有搜索引擎訪問(wèn)網(wǎng)站的任何部分

User-agent: *

Disallow: /

例2. 允許所有的搜索引擎訪問(wèn)網(wǎng)站的任何部分

User-agent: *

Disallow:

例3. 僅禁止Baiduspider訪問(wèn)您的網(wǎng)站

User-agent: Baiduspider

Disallow: /

例4. 僅允許Baiduspider訪問(wèn)您的網(wǎng)站

User-agent: Baiduspider

Disallow:

例5. 禁止spider訪問(wèn)特定目錄

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /data/

注意事項(xiàng):1)三個(gè)目錄要分別寫。2)請(qǐng)注意最后要帶斜杠。3)帶斜杠與不帶斜杠的區(qū)別。

例6. 允許訪問(wèn)特定目錄中的部分url

我希望a目錄下只有b.htm允許訪問(wèn),怎么寫?

User-agent: *

Allow: /a/b.htm

Disallow: /a/

注:允許收錄優(yōu)先級(jí)要高于禁止收錄。

從例7開(kāi)始說(shuō)明通配符的使用。通配符包括("$" 結(jié)束符;

"*"任意符)

例7. 禁止訪問(wèn)網(wǎng)站中所有的動(dòng)態(tài)頁(yè)面

User-agent: *

Disallow: /*?*

例8. 禁止搜索引擎抓取網(wǎng)站上所有圖片

User-agent: *

Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.gif$

Disallow: /*.png$

Disallow: /*.bmp$

其他很多情況呢,需要具體情況具體分析。只要你了解了這些語(yǔ)法規(guī)則以及通配符的使用,相信很多情況是可以解決的。

四、meta robots標(biāo)簽

meta是網(wǎng)頁(yè)html文件的head標(biāo)簽里面的標(biāo)簽內(nèi)容。它規(guī)定了此html文件對(duì)與搜索引擎的抓取規(guī)則。與robot.txt 不同,它只針對(duì)寫在此html的文件。

寫法:

。

…里面的內(nèi)容列出如下

noindex - 阻止頁(yè)面被列入索引。

nofollow - 阻止對(duì)于頁(yè)面中任何超級(jí)鏈接進(jìn)行索引。

noarchive - 不保存該頁(yè)面的網(wǎng)頁(yè)快照。

nosnippet - 不在搜索結(jié)果中顯示該頁(yè)面的摘要信息,同時(shí)不保存該頁(yè)面的網(wǎng)頁(yè)快照。

noodp - 在搜索結(jié)果中不使用Open Directory Project中的描述信息作為其摘要信息

SEO專題推薦:

關(guān)鍵詞優(yōu)化專題:網(wǎng)站關(guān)鍵詞優(yōu)化沒(méi)效果?來(lái)這里學(xué)習(xí)最實(shí)用的關(guān)鍵詞優(yōu)化技巧!

內(nèi)鏈優(yōu)化專題:最能提升網(wǎng)站權(quán)重的內(nèi)鏈部署優(yōu)化技巧與方法

外鏈建設(shè)專題:高質(zhì)量自然外鏈怎么做?讀完這些你將質(zhì)的飛躍

網(wǎng)站降權(quán)專題:2015年最有用的網(wǎng)站降權(quán)、被K、被黑、被攻擊的解決方法

用戶體驗(yàn)專題:學(xué)習(xí)完這些,作為站長(zhǎng)的你可以秒懂如何做網(wǎng)站用戶體驗(yàn)

行業(yè)網(wǎng)站專題:優(yōu)化行業(yè)網(wǎng)站的“葵花寶典”看完后無(wú)優(yōu)化壓力

申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots標(biāo)簽

相關(guān)文章

  • robots具體應(yīng)該禁止些什么文件

    今天大概總結(jié)一下:首先說(shuō)明一點(diǎn):每天百度派出的蜘蛛是有限的,robots寫出來(lái)是為了節(jié)省蜘蛛資源讓蜘蛛能更快的進(jìn)行有效爬取和收錄!

  • 你不知道的robots文件那些事

    實(shí)際上百度只是擔(dān)心由于網(wǎng)站管理員不懂得robots.txt語(yǔ)法,導(dǎo)致搜索引擎蜘蛛無(wú)法正常抓取網(wǎng)站,才這樣寫的。建立robots.txt文件還是必需的,哪怕這個(gè)robots.txt文件是一個(gè)空白的文本文檔都可以。因?yàn)槲覀兊木W(wǎng)站畢竟不是僅僅會(huì)被百度收錄,同時(shí)也會(huì)被其他搜索引擎收錄,上傳一個(gè)空白的robo

    標(biāo)簽:
    robots標(biāo)簽
    robots
  • 解除網(wǎng)站Robots封禁全過(guò)程

    obots協(xié)議或者說(shuō)robots文件對(duì)搜索引擎優(yōu)化中非常重要,但設(shè)置出錯(cuò)可能會(huì)導(dǎo)致收錄下降或不能正常收錄。今天,小小課堂SEO自學(xué)網(wǎng)帶來(lái)的是《【robots文件協(xié)議】解除Robots封禁全過(guò)程》。希望本次的百度SEO優(yōu)化培訓(xùn)對(duì)大家有所幫助。

  • 熊掌號(hào)必備seo知識(shí)1:robots文件

    最近很多站長(zhǎng)咨詢關(guān)于熊掌號(hào)的問(wèn)題,包括熊掌號(hào)和傳統(tǒng)seo之間的關(guān)系等,熊掌號(hào)在給網(wǎng)站提供更多的品牌特型、內(nèi)容保護(hù)之外,是否會(huì)遵循seo的基礎(chǔ)原理呢?曲曲小姐姐將在以后給大家逐一分享。

  • 網(wǎng)站上線前把robots寫了所有蜘蛛禁止抓取,取消后還是這樣怎么辦

    不知道有沒(méi)有其他站長(zhǎng)跟我一樣,技術(shù)部把網(wǎng)站后臺(tái)搭建好了,然后網(wǎng)站還是很多東西需要修改的,特別是TDK改了一遍又一遍,但是這時(shí)候我沒(méi)有去百度站長(zhǎng)申請(qǐng)閉站保護(hù),卻是在網(wǎng)站根目錄上傳了robots文件,里面寫著:User-agent:*Disallow:/這表示我的網(wǎng)站禁止所有蜘蛛來(lái)抓取,那么這種情況有什

    標(biāo)簽:
    robots標(biāo)簽
    robots

熱門排行

信息推薦