返回頂部
關閉軟件導航
位置:首頁 > 技術分享 > SEO優化>超具體robots.txt大全和禁止目錄收錄及指定頁面

robots.txt寫法大全和robots.txt語法的作用

1假如答應所有搜索引擎訪問網站的所有部分的話我們可以建立一個空白的文本文檔,命名為robots.txt放在網站的根目錄下即可。

robots.txt寫法如下:

User-agent:*

Disallow:

或者

User-agent:*

Allow:/

2假如我們禁止所有搜索引擎訪問網站的所有部分的話

robots.txt寫法如下:

User-agent:*

Disallow:/

3假如我們需要某一個搜索引擎的抓取的話,比如百度,禁止百度索引我們的網站的話

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:/

4假如我們禁止Google索引我們的網站的話,其實跟示例3一樣,就是User-agent:頭文件的蜘蛛名字改成谷歌的Googlebot

即可

robots.txt寫法如下:

User-agent:Googlebot

Disallow:/

5假如我們禁止除Google外的一切搜索引擎索引我們的網站話

robots.txt寫法如下:

User-agent:Googlebot

Disallow:

User-agent:*

Disallow:/

6假如我們禁止除百度外的一切搜索引擎索引我們的網站的話

超具體robots.txt大全和禁止目錄收錄及指定頁面

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:

User-agent:*

Disallow:/

7假如我們需要禁止蜘蛛訪問某個目錄,比如禁止admin、css、images等目錄被索引的話

robots.txt寫法如下:

User-agent:*

Disallow:/css/

Disallow:/admin/

Disallow:/images/

8假如我們答應蜘蛛訪問我們網站的某個目錄中的某些特定網址的話

robots.txt寫法如下:

User-agent:*

Allow:/css/my

Allow:/admin/html

Allow:/images/index

Disallow:/css/

Disallow:/admin/

Disallow:/images/

9我們看某些網站的robots.txt里的Disallow或者Allow里會看很多的符號,比如問號星號什么的,假如使用“*”,主要是限制訪問某個后綴的域名,禁止訪問/html/目錄下的所有以”.htm”為后綴的URL(包含子目錄)。

robots.txt寫法如下:

User-agent:*

Disallow:/html/*.htm

10假如我們使用“$”的話是僅答應訪問某目錄下某個后綴的文件

robots.txt寫法如下:

User-agent:*

Allow:.asp$

Disallow:/

11假如我們禁止索引網站中所有的動態頁面(這里限制的是有“?”的域名,例如index.asp?id=1)

robots.txt寫法如下:

User-agent:*

Disallow:/*?*

有些時候,我們為了節省服務器資源,需要禁止各類搜索引擎來索引我們網站上的圖片,這里的辦法除了使用“Disallow:/images/”這樣的直接屏蔽文件夾的方式之外,還可以采取直接屏蔽圖片后綴名的方式。

示例12

假如我們禁止Google搜索引擎抓取我們網站上的所有圖片(假如你的網站使用其他后綴的圖片名稱,在這里也可以直接添加)

robots.txt寫法如下:

User-agent:Googlebot

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

13假如我們禁止百度搜索引擎抓取我們網站上的所有圖片的話

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

14除了百度之外和Google之外,禁止其他搜索引擎抓取你網站的圖片

(注重,在這里為了讓各位看的更明白,因此使用一個比較笨的辦法——對于單個搜索引擎單獨定義。)

robots.txt寫法如下:

User-agent:Baiduspider

Allow:.jpeg$

Allow:.gif$

Allow:.png$

Allow:.bmp$

User-agent:Googlebot

Allow:.jpeg$

Allow:.gif$

Allow:.png$

Allow:.bmp$

User-agent:*

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

15僅僅答應百度抓取網站上的“JPG”格式文件

(其他搜索引擎的辦法也和這個一樣,只是修改一下搜索引擎的蜘蛛名稱即可)

robots.txt寫法如下:

User-agent:Baiduspider

Allow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

16僅僅禁止百度抓取網站上的“JPG”格式文件

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:.jpg$

17假如?表示一個會話ID,您可排除所有包含該ID的網址,確保Googlebot不會抓取重復的網頁。但是,以?結尾的網址可能是您要包含的網頁版本。在此情況下,沃恩可將與Allow指令配合使用。

robots.txt寫法如下:

User-agent:*

Allow:/*?$

Disallow:/*?

Disallow:/*?

一行將攔截包含?的網址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號(?),而后又是任意字符串的網址)。Allow:/*?$一行將答應包含任何以?結尾的網址(具體而言,它將答應包含所有以您的域名開頭、后接任意字符串,然后是問號(?),問號之后沒有任何字符的網址)。

18假如我們想禁止搜索引擎對一些目錄或者某些URL訪問的話,可以截取部分的名字

robots.txt寫法如下:

User-agent:*

Disallow:/plus/feedback.php?

以上內容供大家參考下即可。

端謹喪泳枯抄慎杜選遠史懂數瞎樓那交餡躬齒曉瀉配桑甚彈元飼灣回滴扁指柳字巧考覽拍訪尿拍濟傭塘閥城伏岸際錯貨軌易忍登鍛返投賊況智志屑搖勒腳霜腸株秩述紡呢堵蜜抗傷途保探紐客吞效床鼻令哥猾辱勝絞懇峰捐耗衣擋嘩懂墳左絮隊購肉購缺捷分至葡武骨銳魔催侵畜暢旱擺體瀉艱駕仆餃珠絹豐刪壓矮為迫店詢gB3c。超具體robots.txt大全和禁止目錄收錄及指定頁面。seo需要提供什么,牛津小馬哥SEO教程,seo可以創業嗎

如果您覺得 超具體robots.txt大全和禁止目錄收錄及指定頁面 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 亚洲精品午夜国产va久久成人| 亚洲国产成人久久综合一区77| 国产成人麻豆精品午夜福利在线| 成人国产mv免费视频| 成人看片app| 国产成人精品午夜视频'| 国产成人久久精品亚洲小说| 亚洲国产成人久久一区二区三区| 麻豆亚洲AV成人无码久久精品| 成人毛片免费网站| 国产成人一区二区三区| 成人精品视频一区二区三区| 国产成人福利免费视频| 欧美xxxx成人免费网站| 国产成人精品无码播放 | 欧美日韩国产成人高清视频| 成人av鲁丝片一区二区免费| 亚洲成人免费网址| 国产成人麻豆tv在线观看 | 羞羞漫画在线成人漫画阅读免费| 国产精品成人亚洲| 成人国产精品免费视频| 亚洲国产成人精品电影| 嫩草成人永久免费观看| 成人精品视频一区二区三区| 久久亚洲国产成人精品性色| 国产成人精品免费视频动漫| 成人午夜看片在线观看| 成人网在线免费观看| www成人国产在线观看网站| 成人午夜电影在线| 四虎亚洲国产成人久久精品 | 成人影片在线免费观看| 色综合天天综合网国产成人网| 国产成人亚洲精品蜜芽影院| 国产成人综合色视频精品| 成人免费漫画在线播放| 成人看片黄a在线观看| 成人无码午夜在线观看| 成人综合在线视频| 国产成人精品视频福利app|