返回頂部
關閉軟件導航
位置:首頁 > 技術分享 > SEO優化>超具體robots.txt大全和禁止目錄收錄及指定頁面

robots.txt寫法大全和robots.txt語法的作用

1假如答應所有搜索引擎訪問網站的所有部分的話我們可以建立一個空白的文本文檔,命名為robots.txt放在網站的根目錄下即可。

robots.txt寫法如下:

User-agent:*

Disallow:

或者

User-agent:*

Allow:/

2假如我們禁止所有搜索引擎訪問網站的所有部分的話

robots.txt寫法如下:

User-agent:*

Disallow:/

3假如我們需要某一個搜索引擎的抓取的話,比如百度,禁止百度索引我們的網站的話

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:/

4假如我們禁止Google索引我們的網站的話,其實跟示例3一樣,就是User-agent:頭文件的蜘蛛名字改成谷歌的Googlebot

即可

robots.txt寫法如下:

User-agent:Googlebot

Disallow:/

5假如我們禁止除Google外的一切搜索引擎索引我們的網站話

robots.txt寫法如下:

User-agent:Googlebot

Disallow:

User-agent:*

Disallow:/

6假如我們禁止除百度外的一切搜索引擎索引我們的網站的話

超具體robots.txt大全和禁止目錄收錄及指定頁面

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:

User-agent:*

Disallow:/

7假如我們需要禁止蜘蛛訪問某個目錄,比如禁止admin、css、images等目錄被索引的話

robots.txt寫法如下:

User-agent:*

Disallow:/css/

Disallow:/admin/

Disallow:/images/

8假如我們答應蜘蛛訪問我們網站的某個目錄中的某些特定網址的話

robots.txt寫法如下:

User-agent:*

Allow:/css/my

Allow:/admin/html

Allow:/images/index

Disallow:/css/

Disallow:/admin/

Disallow:/images/

9我們看某些網站的robots.txt里的Disallow或者Allow里會看很多的符號,比如問號星號什么的,假如使用“*”,主要是限制訪問某個后綴的域名,禁止訪問/html/目錄下的所有以”.htm”為后綴的URL(包含子目錄)。

robots.txt寫法如下:

User-agent:*

Disallow:/html/*.htm

10假如我們使用“$”的話是僅答應訪問某目錄下某個后綴的文件

robots.txt寫法如下:

User-agent:*

Allow:.asp$

Disallow:/

11假如我們禁止索引網站中所有的動態頁面(這里限制的是有“?”的域名,例如index.asp?id=1)

robots.txt寫法如下:

User-agent:*

Disallow:/*?*

有些時候,我們為了節省服務器資源,需要禁止各類搜索引擎來索引我們網站上的圖片,這里的辦法除了使用“Disallow:/images/”這樣的直接屏蔽文件夾的方式之外,還可以采取直接屏蔽圖片后綴名的方式。

示例12

假如我們禁止Google搜索引擎抓取我們網站上的所有圖片(假如你的網站使用其他后綴的圖片名稱,在這里也可以直接添加)

robots.txt寫法如下:

User-agent:Googlebot

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

13假如我們禁止百度搜索引擎抓取我們網站上的所有圖片的話

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

14除了百度之外和Google之外,禁止其他搜索引擎抓取你網站的圖片

(注重,在這里為了讓各位看的更明白,因此使用一個比較笨的辦法——對于單個搜索引擎單獨定義。)

robots.txt寫法如下:

User-agent:Baiduspider

Allow:.jpeg$

Allow:.gif$

Allow:.png$

Allow:.bmp$

User-agent:Googlebot

Allow:.jpeg$

Allow:.gif$

Allow:.png$

Allow:.bmp$

User-agent:*

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

15僅僅答應百度抓取網站上的“JPG”格式文件

(其他搜索引擎的辦法也和這個一樣,只是修改一下搜索引擎的蜘蛛名稱即可)

robots.txt寫法如下:

User-agent:Baiduspider

Allow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

16僅僅禁止百度抓取網站上的“JPG”格式文件

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:.jpg$

17假如?表示一個會話ID,您可排除所有包含該ID的網址,確保Googlebot不會抓取重復的網頁。但是,以?結尾的網址可能是您要包含的網頁版本。在此情況下,沃恩可將與Allow指令配合使用。

robots.txt寫法如下:

User-agent:*

Allow:/*?$

Disallow:/*?

Disallow:/*?

一行將攔截包含?的網址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號(?),而后又是任意字符串的網址)。Allow:/*?$一行將答應包含任何以?結尾的網址(具體而言,它將答應包含所有以您的域名開頭、后接任意字符串,然后是問號(?),問號之后沒有任何字符的網址)。

18假如我們想禁止搜索引擎對一些目錄或者某些URL訪問的話,可以截取部分的名字

robots.txt寫法如下:

User-agent:*

Disallow:/plus/feedback.php?

以上內容供大家參考下即可。

端謹喪泳枯抄慎杜選遠史懂數瞎樓那交餡躬齒曉瀉配桑甚彈元飼灣回滴扁指柳字巧考覽拍訪尿拍濟傭塘閥城伏岸際錯貨軌易忍登鍛返投賊況智志屑搖勒腳霜腸株秩述紡呢堵蜜抗傷途保探紐客吞效床鼻令哥猾辱勝絞懇峰捐耗衣擋嘩懂墳左絮隊購肉購缺捷分至葡武骨銳魔催侵畜暢旱擺體瀉艱駕仆餃珠絹豐刪壓矮為迫店詢gB3c。超具體robots.txt大全和禁止目錄收錄及指定頁面。seo需要提供什么,牛津小馬哥SEO教程,seo可以創業嗎

如果您覺得 超具體robots.txt大全和禁止目錄收錄及指定頁面 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 欧美日韩国产成人高清视频 | 亚洲综合国产成人丁香五月激情| 色偷偷成人网免费视频男人的天堂| 免费看一级淫片成人| 国产成人三级视频在线观看播放| 五月天国产成人AV免费观看| 成人片黄网站色大片免费 | 国产成人福利免费视频| 国产成人在线免费观看| 亚洲人成人77777在线播放| 精品亚洲国产成人| 国产成人片无码视频在线观看| 久久久久亚洲av成人网| 国产综合成人久久大片91| 亚洲国产精品成人久久| 成人久久久久久| 91成人免费版| 亚洲精品成人片在线播放| 成人精品视频99在线观看免费| 国产成人一区二区三区电影网站| 99久久国产综合精品成人影院| 国产成人无码一区二区三区在线| 69堂国产成人精品视频不卡| 四虎影视成人永久免费观看视频| 成人欧美日韩一区二区三区| 久久久久成人精品| 四虎精品成人免费观看| 成人黄软件网18免费下载成人黄18免费视频 | 午夜成人理论福利片| 成人a在线观看| 日韩成人在线网站| 2022国产成人福利精品视频| 亚洲国产精品成人综合久久久 | 成人免费v片在线观看| 久久成人免费播放网站| 中文国产成人精品久久水| 久久亚洲精品成人综合| 韩国免费一级成人毛片| 欧美成人手机在线视频| 我的初次内射欧美成人影视| 成人在线不卡视频|