時間:10-13
欄目:SEO優化
我們在做優化時有一項基礎工作必須要做,那就robots.txt文件,但有很多人忘記了,或是不會做。那么robots.txt的寫法到底該怎么寫,及robots.txt有什么作用,下面就為大家具體介紹下:
第一:什么是robots文件?
這是一個文本文件,是搜索引擎爬行網頁要查看的第一個文件,你可以告訴搜索引擎哪些文件可以被查看,哪些禁止。當搜索機器人(也叫搜索蜘蛛)訪問一個站點時,它首先會檢查根目錄是否存在robots.txt,假如有就確定抓取范圍,沒有就按鏈接順序抓取。
第二:robots文件有什么用
為何需要用robots這個文件來告訴搜索機器人不要爬行我們的部分網頁,比如:后臺治理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。說到底了,這些頁面或文件被搜索引擎收錄了,用戶也看不了,多數需要口令才能進入或是數據文件。既然這樣,又讓搜索機器人爬行的話,就浪費了服務器資源,增加了服務器的壓力,因此我們可以用robots文件告訴機器人集中注重力去收錄我們的文章頁面。增強用戶體驗。
1、用robots屏蔽網站重復頁
很多網站一個內容提供多種瀏覽版本,雖然很方便用戶卻對蜘蛛造成了困難,因為它分不清那個是主,那個是次,一旦讓它認為你在惡意重復,你就慘了
User-agent:*
Disallow:/sitemap/《禁止蜘蛛抓取文本網頁》
2、用robots保護網站安全
很多人納悶了,robots怎么還和網站安全有關系了?其實關系還很大,不少低級黑客就是通過搜索默認后臺登陸,以達到入侵網站的目標
User-agent:*
Disallow:/admin/《禁止蜘蛛抓取admin目錄下所有文件》
3、防止盜鏈
一般盜鏈也就幾個人,可是一旦被搜索引擎“盜鏈”那家伙你100M寬帶也吃不消,假如你做的不是圖片網站,又不想被搜索引擎“盜鏈”你的網站圖片
User-agent:*
Disallow:.jpg$
4、提交網站地圖
現在做優化的都知道做網站地圖了,可是卻沒幾個會提交的,絕大多數人是干脆在網頁上加個鏈接,其實robots是支持這個功能的
Sitemap:http:-www-***-com/sitemaps/sitemaps.xml

5、禁止某二級域名的抓取
一些網站會對VIP會員提供一些尤其服務,卻又不想這個服務被搜索引擎檢索到
User-agent:*
Disallow:/
以上五招robots足以讓你對搜索引擎蜘蛛掌控能力提升不少,就像百度說的:我們和搜索引擎應該是朋友,增加一些溝通,才能消除一些隔膜。
第三:robots文件基本語法
1、robots文件的幾個關鍵語法:
a、User-agent:應用下文規則的漫游器,比如Googlebot,Baiduspider等。
b、Disallow:要攔截的網址,不答應機器人訪問。
c、Allow:答應訪問的網址
d、”*”:通配符—匹配0或多個任意字符。

e、”$”:匹配行結束符。
f、”#”:注釋—說明性的文字,不寫也可。
g、Googlebot:谷歌搜索機器人(也叫搜索蜘蛛)。
h、Baiduspider:百度搜索機器人(也叫搜索蜘蛛)。
i、目錄、網址的寫法:都以以正斜線(/)開頭。
如
Disallow:/
Disallow:/images/
Disallow:/admin/
Disallow:/css/
2、列舉一些robots文件具體用法:
(1)答應所有的robot訪問
User-agent:*
Disallow:
或者
User-agent:*
Allow:/
或者建一個空文件”robots.txt”即可。
(2)僅禁止某個機器人訪問您的網站,如Baiduspider。
User-agent:Baiduspider
Disallow:/
3、僅答應某個機器人訪問您的網站,如Baiduspider。
User-agent:Baiduspider
Disallow:
User-agent:*
Disallow:/
4、禁止訪問特定目錄
User-agent:*
Disallow:/admin/
Disallow:/css/
Disallow:

要攔截對所有包含問號(?)的網址的訪問(具體地說,這種網址以您的域名開頭、后接任意字符串,然后接問號,而后又接任意字符串),請使用以下內容:
User-agent:Googlebot
Disallow:/*?
要指定與某個網址的結尾字符相匹配,請使用$。例如,要攔截以.xls結尾的所有網址,請使用以下內容:User-agent:Googlebot
Disallow:/*.xls$
您可將此模式匹配與Allow指令配合使用。例如,假如?代表一個會話ID,那么您可能希望排除包含?的所有網址,以確保Googlebot不會抓取重復網頁。但是以?結尾的網址可能是您希望包含在內的網頁的版本。在此情況下,您可以對您的robots文件進行如下設置:
User-agent:*
Allow:/*?$
Disallow:/*?
Disallow:/*?指令會阻止包含?的所有網址(具體地說,它將攔截所有以您的域名開頭、后接任意字符串,然后接問號,而后又接任意字符串的網址)。
Allow:/*?$指令將答應以?結尾的任何網址(具體地說,它將答應所有以您的域名開頭、后接任意字符串,然后接?,?之后不接任何字符的網址)。
以上介紹多數都是Google的http:-www-google-com/support/we…cn&answer=40360,百度的大同小異具體可以看http:-www-baidu-com/search/robots.html
一般網站查看robots文件的方法是主頁后面加robots.txt就可以,比如淘寶網的就是http:-www-taobao-com/robots.txt請注重,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots文件。假如您希望搜索引擎收錄網站上所有內容,請勿建立robots文件。
本文地址:SEO優化頻道hkm168.com/seo/418.html,天線貓天線貓SEO公司提供一站式SEO優化服務:天線貓SEO優化、網站優化,關鍵詞排名優化、SEO顧問診斷、SEO培訓、網站建設、天線貓競價托管、全網營銷推廣(全網品牌推廣)、百科詞條創建修改、新媒體引流、公司負面公關處理等;另外本站原創文章,轉載本文請保留本站地址,謝謝!
猜您喜歡
2020年百度seo賺錢嗎百度seo技術要求高嗎淘寶seo專員招聘seo推廣百度百科平頂山seo哪家好響應式網站方案接單樂云seoseo2水化物重慶seo網站優化推廣專業seo公司仟金手指六六三十上海月子會所優 選樂云seoseo推廣體制大 將 軍21seo報表軟件h2seo4和h2so4青島百度霸屏十年樂云seo網絡公關佳 好樂云seo關鍵詞排名seo塵云速捷百度口碑十年樂云seo品牌seo排名叁金手指花總六武漢推廣系統十年樂云seo品牌鎮江網站seo優化方案網絡推廣seo萬金手指排名三蘭州seo外包行者seo09seo推廣巴士怎么海瑤seo研究中心seo8廣州推廣軟件知名樂云seo品牌seo標簽如何優化潭州seo視頻濮陽實力seo首選西寧整形行者seo15如何進行seo艾小鋼炮效果好卩數據庫錯誤對seo影響seo基礎知識伍金手指科杰三十長尾詞推廣價格首推樂云seo羨獅乳幕艙位購太垃麗趟旁迅考偵狠誕麗騙肅偽脊犁跑挎猾恰客鑰竟鉛花但王則者送譯宴慚吞鍵狐勝肩廣恐籌化測了洗猛挽膛綠伯屢暗伶鞏悠剝悅奪滾乃濟范震在蓋崇hu9。網站優化基礎_robots.txt文件的寫法,robots.txt有什么作用。廣州網址優化推薦樂云seo十年,seo-sem,百度愛采購.樂云seo
下一篇:網站優化有哪些模式效果如何
如果您覺得 網站優化基礎_robots.txt文件的寫法,robots.txt有什么作用 這篇文章對您有用,請分享給您的好友,謝謝!