域名預(yù)訂/競(jìng)價(jià),好“米”不錯(cuò)過
1如果允許所有搜索引擎訪問網(wǎng)站的所有部分的話 我們可以建立一個(gè)空白的文本文檔,命名為robots.txt放在網(wǎng)站的根目錄下即可。
robots.txt寫法如下:
User-agent: *
Disallow:
或者
User-agent: *
Allow: /
2如果我們禁止所有搜索引擎訪問網(wǎng)站的所有部分的話
robots.txt寫法如下:
User-agent: *
Disallow: /
3如果我們需要某一個(gè)搜索引擎的抓取的話,比如百度,禁止百度索引我們的網(wǎng)站的話
robots.txt寫法如下:
User-agent: Baiduspider
Disallow: /
4如果我們禁止Google索引我們的網(wǎng)站的話,其實(shí)跟示例3一樣,就是User-agent:頭文件的蜘蛛名字改成谷歌的Googlebot
即可
robots.txt寫法如下:
User-agent: Googlebot
Disallow: /
5如果我們禁止除Google外的一切搜索引擎索引我們的網(wǎng)站話
robots.txt寫法如下:
User-agent: Googlebot
Disallow:
User-agent: *
Disallow: /
6如果我們禁止除百度外的一切搜索引擎索引我們的網(wǎng)站的話
robots.txt寫法如下:
User-agent: Baiduspider
Disallow:
User-agent: *
Disallow: /
7如果我們需要禁止蜘蛛訪問某個(gè)目錄,比如禁止admin、css、images等目錄被索引的話
robots.txt寫法如下:
User-agent: *
Disallow: /css/
Disallow: /admin/
Disallow: /images/
8如果我們?cè)试S蜘蛛訪問我們網(wǎng)站的某個(gè)目錄中的某些特定網(wǎng)址的話
robots.txt寫法如下:
User-agent: *
Allow: /css/my
Allow: /admin/html
Allow: /images/index
Disallow: /css/
Disallow: /admin/
Disallow: /images/
9我們看某些網(wǎng)站的robots.txt里的Disallow或者Allow里會(huì)看很多的符號(hào),比如問號(hào)星號(hào)什么的,如果使用“*”,主要是限制訪問某個(gè)后綴的域名,禁止訪問/html/目錄下的所有以".htm"為后綴的URL(包含子目錄)。
robots.txt寫法如下:
User-agent: *
Disallow: /html/*.htm
10如果我們使用“$”的話是僅允許訪問某目錄下某個(gè)后綴的文件
robots.txt寫法如下:
User-agent: *
Allow: .asp$
Disallow: /
11如果我們禁止索引網(wǎng)站中所有的動(dòng)態(tài)頁面(這里限制的是有“?”的域名,例如index.asp?id=1)
robots.txt寫法如下:
User-agent: *
Disallow: /*?*
有些時(shí)候,我們?yōu)榱斯?jié)省服務(wù)器資源,需要禁止各類搜索引擎來索引我們網(wǎng)站上的圖片,這里的辦法除了使用“Disallow: /images/”這樣的直接屏蔽文件夾的方式之外,還可以采取直接屏蔽圖片后綴名的方式。
示例12
如果我們禁止Google搜索引擎抓取我們網(wǎng)站上的所有圖片(如果你的網(wǎng)站使用其他后綴的圖片名稱,在這里也可以直接添加)
robots.txt寫法如下:
User-agent: Googlebot
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$
13如果我們禁止百度搜索引擎抓取我們網(wǎng)站上的所有圖片的話
robots.txt寫法如下:
User-agent: Baiduspider
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$
14除了百度之外和Google之外,禁止其他搜索引擎抓取你網(wǎng)站的圖片
(注意,在這里為了讓各位看的更明白,因此使用一個(gè)比較笨的辦法——對(duì)于單個(gè)搜索引擎單獨(dú)定義。)
robots.txt寫法如下:
User-agent: Baiduspider
Allow: .jpeg$
Allow: .gif$
Allow: .png$
Allow: .bmp$
User-agent: Googlebot
Allow: .jpeg$
Allow: .gif$
Allow: .png$
Allow: .bmp$
User-agent: *
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$
15僅僅允許百度抓取網(wǎng)站上的“JPG”格式文件
(其他搜索引擎的辦法也和這個(gè)一樣,只是修改一下搜索引擎的蜘蛛名稱即可)
robots.txt寫法如下:
User-agent: Baiduspider
Allow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$
16僅僅禁止百度抓取網(wǎng)站上的“JPG”格式文件
robots.txt寫法如下:
User-agent: Baiduspider
Disallow: .jpg$
17如果 ? 表示一個(gè)會(huì)話 ID,您可排除所有包含該 ID 的網(wǎng)址,確保 Googlebot 不會(huì)抓取重復(fù)的網(wǎng)頁。但是,以 ? 結(jié)尾的網(wǎng)址可能是您要包含的網(wǎng)頁版本。在此情況下,沃恩可將與 Allow 指令配合使用。
robots.txt寫法如下:
User-agent:*
Allow:/*?$
Disallow:/*?
Disallow:/ *?
一行將攔截包含 ? 的網(wǎng)址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號(hào) (?),而后又是任意字符串的網(wǎng)址)。Allow: /*?$ 一行將允許包含任何以 ? 結(jié)尾的網(wǎng)址(具體而言,它將允許包含所有以您的域名開頭、后接任意字符串,然后是問號(hào) (?),問號(hào)之后沒有任何字符的網(wǎng)址)。
18如果我們想禁止搜索引擎對(duì)一些目錄或者某些URL訪問的話,可以截取部分的名字
robots.txt寫法如下:
User-agent:*
Disallow: /plus/feedback.php?
以上內(nèi)容供大家參考下即可。
申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!