當(dāng)前位置:首頁(yè) >  站長(zhǎng) >  建站經(jīng)驗(yàn) >  正文

利用robots文件做seo優(yōu)化,讓蜘蛛更好的抓取網(wǎng)站

 2015-08-13 09:06  來(lái)源: 用戶(hù)投稿   我來(lái)投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競(jìng)價(jià),好“米”不錯(cuò)過(guò)

robots文件存在于網(wǎng)站根目錄,是用來(lái)告訴百度蜘蛛那些應(yīng)該抓取,那些不應(yīng)該抓取。正確使用robots文件有助于做好seo優(yōu)化,robots文件的核心詞匯就是allow和disallow用法。百度官網(wǎng)是認(rèn)可這個(gè)文件的,在百度站長(zhǎng)平臺(tái)上也有robots這個(gè)欄目,點(diǎn)擊進(jìn)入,就可以看到你網(wǎng)站robots文件是否編寫(xiě)正確了。

百度robots文件使用說(shuō)明

1、robots.txt可以告訴百度您網(wǎng)站的哪些頁(yè)面可以被抓取,哪些頁(yè)面不可以被抓取。

2、您可以通過(guò)Robots工具來(lái)創(chuàng)建、校驗(yàn)、更新您的robots.txt文件,或查看您網(wǎng)站robots.txt文件在百度生效的情況。

3、Robots工具暫不支持https站點(diǎn)。

4、Robots工具目前支持48k的文件內(nèi)容檢測(cè),請(qǐng)保證您的robots.txt文件不要過(guò)大,目錄最長(zhǎng)不超過(guò)250個(gè)字符。

上圖我給的一個(gè)例子中,disallow語(yǔ)句有問(wèn)題,原因是把英文的冒號(hào)寫(xiě)成了中文的冒號(hào)。

當(dāng)然直接輸入網(wǎng)站根目錄加上robtots.txt文件也可以

User-agent:* 是用來(lái)置頂那些搜索引擎蜘蛛可以抓取的,一般默認(rèn)設(shè)置

Disallow:/category/*/page/ 分類(lèi)目錄下面翻頁(yè)后的鏈接,比如,進(jìn)入校賺網(wǎng)分類(lèi)目錄 "推廣運(yùn)營(yíng)經(jīng)驗(yàn)"目錄后,在翻頁(yè)一次,就成了 stcash.com/category/tuiguangyunying/page/2形式了

Disallow:/?s=*Disallow:/*/?s=*搜索結(jié)果頁(yè)面和分類(lèi)目錄搜索結(jié)果頁(yè)面,這里沒(méi)必要再次抓取。

Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/ 這三個(gè)目錄是系統(tǒng)目錄,一般都是屏蔽蜘蛛抓取

Disallow:/*/trackback trackback的鏈接

Disallow:/feed Disallow:/*/feed Disallow:/comments/feed訂閱鏈接

Disallow:/?p=* 文章短鏈接,會(huì)自動(dòng)301跳轉(zhuǎn)到長(zhǎng)連接

例如,朱海濤博客之前就被收錄過(guò)短連接

Disallow:/*/comment-page-* Disallow:/*?replytocom* 這兩個(gè)我在之前文章有過(guò)說(shuō)明,來(lái)自于評(píng)論鏈接,很容易造成重復(fù)收錄。

在robots.txt文件的最后還可以制定sitemap文件Sitemap:http://***.com/sitemap.txt

sitemap地址指令,主流是txt和xml格式。在這里分享一段張戈所寫(xiě)txt格式的simemap文件。

將上述代碼保存到txt文件,上傳到根目錄,并且在robots.txt文件中指定即可

這里給大家共享下我的robots.txt文件

User-agent: *

Disallow:/wp-admin/

Disallow: /*/comment-page-*

Disallow: /*?replytocom*

Disallow: /wp-content/

Disallow: /wp-includes/

Disallow: /category/*/page/

Disallow: /*/trackback

Disallow: /feed

Disallow: /*/feed

Disallow: /comments/feed

Disallow: /?s=*

Disallow: /*/?s=*\

Disallow: /attachment/

Disallow: /tag/*/page/

Sitemap:

來(lái)源:校賺網(wǎng)朱海濤(微信:81433982),原創(chuàng)文章如轉(zhuǎn)載,請(qǐng)注明本文鏈接:

申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots標(biāo)簽
搜索引擎蜘蛛

相關(guān)文章

  • 什么是搜索引擎蜘蛛?SEO搜索引擎蜘蛛工作原理

    作為一名編輯乃至站長(zhǎng),在關(guān)注網(wǎng)站在搜索引擎排名的時(shí)候,最重要的就是蜘蛛(spider)。搜索引擎蜘蛛是一個(gè)自動(dòng)抓取互聯(lián)網(wǎng)上網(wǎng)頁(yè)內(nèi)容的程序,每個(gè)搜索引擎都有自己的蜘蛛,那么,蜘蛛是怎樣在網(wǎng)站上抓取內(nèi)容的呢?一起來(lái)看看它的工作原理吧

    標(biāo)簽:
    搜索引擎蜘蛛
  • 什么是搜索引擎蜘蛛?SEO搜索引擎蜘蛛工作原理

    作為一名編輯乃至站長(zhǎng),在關(guān)注網(wǎng)站在搜索引擎排名的時(shí)候,最重要的就是蜘蛛(spider)。搜索引擎蜘蛛是一個(gè)自動(dòng)抓取互聯(lián)網(wǎng)上網(wǎng)頁(yè)內(nèi)容的程序,每個(gè)搜索引擎都有自己的蜘蛛,那么,蜘蛛是怎樣在網(wǎng)站上抓取內(nèi)容的呢?一起來(lái)看看它的工作原理吧

    標(biāo)簽:
    搜索引擎蜘蛛
  • 七類(lèi)蜘蛛陷坑 網(wǎng)站優(yōu)化中必須要躲避

    不少的網(wǎng)站就是沒(méi)有優(yōu)化好這一方面造成了站內(nèi)存在很多蛛蛛陷坑,到最終壓根兒一個(gè)好好的網(wǎng)站被搜索引擎網(wǎng)站屢屢錯(cuò)判,要不是不給名次,甚至于是造成了數(shù)量多頁(yè)面都搜索引擎網(wǎng)站拋棄。下面小編就為大家介紹網(wǎng)站優(yōu)化中必須要躲避的七類(lèi)蛛蛛陷坑

    標(biāo)簽:
    搜索引擎
    搜索引擎蜘蛛
  • 網(wǎng)站怎么做seo才能吸引蜘蛛收錄更多的頁(yè)面?

    網(wǎng)站怎么做seo才能吸引蜘蛛收錄更多的頁(yè)面?蜘蛛爬行的次數(shù)越多,網(wǎng)頁(yè)收錄的名次越高,該怎么做才能吸引蜘蛛收錄更多的頁(yè)面呢?下面我們就來(lái)看看詳細(xì)的教程,需要的朋友可以參考下

    標(biāo)簽:
    搜索引擎蜘蛛
  • SEO優(yōu)化:淺談如何避免蜘蛛陷阱

    在SEO優(yōu)化的過(guò)程中如何避免蜘蛛陷阱是非常重要的一件事情,本文主要為大家淺談幾招可以避免蜘蛛陷阱的方法,有興趣的朋友們就來(lái)了解下吧

熱門(mén)排行

信息推薦