當(dāng)前位置:首頁(yè) >  站長(zhǎng) >  搜索優(yōu)化 >  正文

利用robots.txt找敏感文件教程

 2015-03-16 16:08  來(lái)源: 互聯(lián)網(wǎng)   我來(lái)投稿 撤稿糾錯(cuò)

  域名預(yù)訂/競(jìng)價(jià),好“米”不錯(cuò)過(guò)

robots.txt是一個(gè)協(xié)議,而不是一個(gè)命令。robots.txt是搜索引擎中訪問(wèn)網(wǎng)站的時(shí)候要查看的第一個(gè)文件。robots.txt文件告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看的。當(dāng)一個(gè)搜索蜘蛛訪問(wèn)一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該文件中的內(nèi)容來(lái)確定訪問(wèn)的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問(wèn)網(wǎng)站上所有沒(méi)有被口令保護(hù)的頁(yè)面。百度官方建議,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請(qǐng)勿建立robots.txt文件。

舉例:

如果將網(wǎng)站視為酒店里的一個(gè)房間,robots.txt就是主人在房間門(mén)口懸掛的“請(qǐng)勿打擾”或“歡迎打掃”的提示牌。這個(gè)文件告訴來(lái)訪的搜索引擎哪些房間可以進(jìn)入和參觀,哪些房間因?yàn)榇娣刨F重物品,或可能涉及住戶及訪客的隱私而不對(duì)搜索引擎開(kāi)放。但robots.txt不是命令,也不是防火墻,如同守門(mén)人無(wú)法阻止竊賊等惡意闖入者。

這里不給時(shí)間大家看了,看完教程再仔細(xì)閱讀一下,很容易理解的,其實(shí)就是SEO中的環(huán)節(jié),做SEO的人都知道,這個(gè)文件很常用,為了不讓百度蜘蛛抓取你的一些不重要的頁(yè)面,或是你想百度蜘蛛抓取你的什么頁(yè)面,就靠這個(gè)文件來(lái)控制即可,所以就給了我們?nèi)肭终叽蟠蟮姆奖?,根?jù)我的經(jīng)驗(yàn)

有的時(shí)候各種掃目錄,也找不到后臺(tái)的時(shí)候,小心翼翼的訪問(wèn)一下這個(gè)文件,蛋疼的你就發(fā)現(xiàn)這個(gè)文件里面很多目錄,其中可愛(ài)的后臺(tái)地址就赫赫的展現(xiàn)在上面,你訪問(wèn)一下就獲得后臺(tái)地址了!

下面來(lái)實(shí)戰(zhàn)一下,讓大家看看效果

看目錄,就知道是織夢(mèng)程序 這個(gè)ICO也能看出。

User-agent: *

Disallow: /plus/ad_js.php

Disallow: /plus/advancedsearch.php

Disallow: /plus/car.php

Disallow: /plus/carbuyaction.php

Disallow: /plus/shops_buyaction.php

Disallow: /plus/erraddsave.php

Disallow: /plus/posttocar.php

Disallow: /plus/disdls.php

Disallow: /plus/feedback_js.php

Disallow: /plus/mytag_js.php

Disallow: /plus/rss.php

Disallow: /plus/search.php

Disallow: /plus/recommend.php

Disallow: /plus/stow.php

Disallow: /plus/count.php

Disallow: /include

Disallow: /templets

這個(gè)沒(méi)有后臺(tái)地址,至少我沒(méi)看出可疑的文件,原來(lái)是默認(rèn)后臺(tái)地址 dede/

Disallow: /wp-admin/

Disallow: /wp-login.php

Disallow:不允許蜘蛛抓取的意思 一看就知道這是后臺(tái)地址,試試,對(duì)吧

#

# robots.txt for Discuz! X3

#

User-agent: *

Disallow: /api/

Disallow: /data/

Disallow: /source/

Disallow: /install/

Disallow: /template/

Disallow: /config/

Disallow: /uc_client/

Disallow: /uc_server/

Disallow: /static/

Disallow: /admin.php

Disallow: /search.php

Disallow: /member.php

Disallow: /api.php

Disallow: /misc.php

Disallow: /connect.php

Disallow: /forum.php?mod=redirect*

Disallow: /forum.php?mod=post*

Disallow: /home.php?mod=spacecp*

Disallow: /userapp.php?mod=app&*

Disallow: /*?mod=misc*

Disallow: /*?mod=attachment*

通過(guò)這里,可以看出這個(gè)是Discuz! X3程序 x3版本的,是一個(gè)論壇

1.可以獲取后臺(tái)地址 效率不錯(cuò)

2.可以獲得網(wǎng)站程序名稱(chēng)

入侵的時(shí)候,別忘了這個(gè)文件即可! 教程結(jié)束

申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots.txt標(biāo)簽

相關(guān)文章

  • 看完秒懂robots.txt寫(xiě)法和注意事項(xiàng)

    robots.txt直接放在網(wǎng)站根目錄下,是蜘蛛訪問(wèn)網(wǎng)站時(shí),第一個(gè)抓取的文件。robots.txt是告訴蜘蛛網(wǎng)站的哪些文件允許抓取,哪些文件不允許抓取,甚至可以指定特定的蜘蛛能不能抓取特定的文件。沒(méi)有抓取就沒(méi)有收錄,沒(méi)有收錄就沒(méi)有排名。所以作為第一蜘蛛訪問(wèn)的文件,寫(xiě)好robots.txt是很重要的。

  • 了解robots文件,主動(dòng)告訴搜索引擎該抓取什么內(nèi)容

    導(dǎo)讀:首先我們要了解什么是robots文件,比如,在安徽人才庫(kù)的首頁(yè)網(wǎng)址后面加入“/robots.txt”,即可打開(kāi)該網(wǎng)站的robots文件,如圖所示,文件里顯示的內(nèi)容是要告訴搜索引擎哪些網(wǎng)頁(yè)希望被抓取,哪些不希望被抓取。因?yàn)榫W(wǎng)站中有一些無(wú)關(guān)緊要的網(wǎng)頁(yè),如“給我留言”或“聯(lián)系方式”等網(wǎng)頁(yè),他們并不參

  • robots.txt禁止搜索引擎收錄的方法

    什么是robots.txt文件?搜索引擎使用spider程序自動(dòng)訪問(wèn)互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取網(wǎng)頁(yè)信息。spider在訪問(wèn)一個(gè)網(wǎng)站時(shí),會(huì)首先會(huì)檢查該網(wǎng)站的根域下是否有一個(gè)叫做robots.txt的純文本文件,這個(gè)文件用于指定spider在您網(wǎng)站上的抓取范圍。您可以在您的網(wǎng)站中創(chuàng)建一個(gè)robots.txt,

  • 如何利用robots.txt對(duì)wordpress博客進(jìn)行優(yōu)化

    筆者在百度站長(zhǎng)平臺(tái)檢測(cè)自己的博客時(shí),出于優(yōu)化的慣性,對(duì)博客的Rbots進(jìn)行了檢測(cè),進(jìn)而在百度搜索了wordpress博客robots的寫(xiě)法設(shè)置問(wèn)題,看了很多wordpress高手對(duì)robots優(yōu)化設(shè)置后,終于有所領(lǐng)悟,在此也分享給一些wordpress新手看看如何去善用robots.txt對(duì)word

    標(biāo)簽:
    robots.txt標(biāo)簽
  • robots.txt寫(xiě)法大全和robots.txt語(yǔ)法的作用

    1如果允許所有搜索引擎訪問(wèn)網(wǎng)站的所有部分的話我們可以建立一個(gè)空白的文本文檔,命名為robots.txt放在網(wǎng)站的根目錄下即可。robots.txt寫(xiě)法如下:User-agent:*Disallow:或者User-agent:*Allow:/2如果我們禁止所有搜索引擎訪問(wèn)網(wǎng)站的所有部分的話robots

    標(biāo)簽:
    robots.txt標(biāo)簽

熱門(mén)排行

信息推薦