當(dāng)前位置:首頁(yè) >  站長(zhǎng) >  搜索優(yōu)化 >  正文

robots具體應(yīng)該禁止些什么文件

 2020-11-30 17:13  來(lái)源: 懶貓seo博客   我來(lái)投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競(jìng)價(jià),好“米”不錯(cuò)過(guò)

網(wǎng)上robots的寫(xiě)法,說(shuō)法一大堆,也不知誰(shuí)對(duì)誰(shuí)錯(cuò),到底robots該禁止那些文件呢?

今天大概總結(jié)一下: 首先說(shuō)明一點(diǎn):每天百度派出的蜘蛛是有限的,robots寫(xiě)出來(lái)是為了節(jié)省蜘蛛資源讓蜘蛛能更快的進(jìn)行有效爬取和收錄!

針對(duì)企業(yè)站來(lái)說(shuō),本身蜘蛛資源不會(huì)很多

,所以我們更要珍惜蜘蛛的每次爬取,讓其都有意義,不要去爬取一些無(wú)價(jià)值的頁(yè)面,浪費(fèi)了蜘蛛資源,從而導(dǎo)致網(wǎng)站遲遲未收錄,沒(méi)排名等情況! 下面舉例列出來(lái): 1、模板文件(/template/)可以屏蔽; 2、這個(gè)文件/uploads/一般放的是圖片,可以屏蔽; 3、/data/系統(tǒng)數(shù)據(jù)文件,可以屏蔽; 4、/img/或/images/,如果你不是做的圖片站,也可以屏蔽; 5、/bin/系統(tǒng)文件可以屏蔽; 6、/install/安裝文件可以屏蔽; 7、/member/有會(huì)員的可以屏蔽; 8、/logreport/有統(tǒng)計(jì)報(bào)告的可以屏蔽; 9、/bjk/有加密的文件,可以屏蔽; 10、/js/,/css/可以屏蔽,留著是為了讓蜘蛛更好地了解網(wǎng)站結(jié)構(gòu),資源少的情況下,可以屏蔽。 11、網(wǎng)站地圖,sitemap要記得放進(jìn)去,不要屏蔽,讓蜘蛛第一時(shí)間去看你的網(wǎng)站地圖,更快了解網(wǎng)站鏈接結(jié)構(gòu)! 總結(jié)到此,希望對(duì)大家有些幫助!

文章來(lái)源:懶貓seo博客

來(lái)源地址:http://www.lanmaoseo.com/seowzyh/6978.html

申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots標(biāo)簽
css是什么
robots

相關(guān)文章

  • robots協(xié)議怎么寫(xiě) 作用是什么?

    robots協(xié)議也叫robots.txt(統(tǒng)一小寫(xiě))是一種存放于網(wǎng)站根目錄下的ASCII編碼的文本文件,它通常告訴網(wǎng)絡(luò)搜索引擎的漫游器(又稱(chēng)網(wǎng)絡(luò)蜘蛛),此網(wǎng)站中的哪些內(nèi)容是不應(yīng)被搜索引擎的漫游器獲取的,哪些是可以被漫游器獲取的。

    標(biāo)簽:
    robots
  • dns-prefetch是什么 前端優(yōu)化:DNS預(yù)解析提升頁(yè)面速度

    在網(wǎng)頁(yè)體驗(yàn)中我們常會(huì)遇到這種情況,即在調(diào)用百度聯(lián)盟、谷歌聯(lián)盟以及當(dāng)前網(wǎng)頁(yè)所在域名外的域名文件時(shí)會(huì)遇到請(qǐng)求延時(shí)非常嚴(yán)重的情況。那么有沒(méi)有方法去解決這種請(qǐng)求嚴(yán)重延時(shí)的現(xiàn)象呢

  • robots文件編寫(xiě)秘籍 新手必看

    當(dāng)我們的網(wǎng)站上線之后,一定會(huì)有一些不想讓百度抓取的頁(yè)面、文件,針對(duì)這種問(wèn)題,我們就要使用協(xié)議去屏蔽。那么這個(gè)協(xié)議是什么?究竟怎么寫(xiě)這個(gè)協(xié)議呢?

    標(biāo)簽:
    robots文件
    robots
  • seo優(yōu)化培訓(xùn)都教一些什么知識(shí)

    只是會(huì)前邊簡(jiǎn)單的優(yōu)化還是不夠的,搜索引擎經(jīng)常會(huì)調(diào)整它的算法,以更符合搜索用戶(hù)的需要,我們要經(jīng)常到一些論壇、博客去學(xué)習(xí),我們應(yīng)該對(duì)搜索引擎新算法保持足夠的敏感。

  • robots.txt文件怎么寫(xiě)才正確呢?

    曾慶平SEO在前面的文章中講過(guò)robots.txt概念的時(shí)候,留下一個(gè)問(wèn)題:為什么曾慶平SEO的robots.txt寫(xiě)得那么復(fù)雜?曾慶平SEO的robots.txt:http://www.xxx.com/robots.txt這樣做的目的是,讓搜索引擎看來(lái)網(wǎng)站更規(guī)范和權(quán)威。

熱門(mén)排行

信息推薦