返回頂部
關閉軟件導航
位置:首頁 > 技術分享 > SEO優化>seo基礎教程叁金手指專業二十什么是Robots.txt

相信有許多站長都碰到過這樣的問題、那就是建站后搜索引擎不收錄你的網站。碰到這樣的問題讓很多站長無從下手...

堅信有很多站長都碰到過那樣的難題、那便是建網站后百度搜索引擎不百度收錄你的網站。碰到那樣的難題讓許多站長找不到方向,不清楚怎么解決。檢索到的一堆材黑帽SEO料都不可以解決困難,那麼今日就帶著小伙伴們一起把握Robots協議,看完了文中、也許你也就找到你網站不百度收錄的緣故了!

什么叫Robots協議?

Robots協議(也稱之為網絡爬蟲協議、智能機器人協議等)的全名是“爬蟲技術清除規范”(RobotsExclusionProtocol),

Robots.txt是儲放在網站根目錄下的一個純文本文檔。盡管它的設定非常簡單,可是功效卻很強勁。網站根據Robots協議告知百度搜索引擎什么網站網頁頁面能夠爬取,什么網站網頁頁面不可以被爬取。因此小伙伴們不必忽略掉這一小關鍵點大功效的物品!

seo基礎教程叁金手指專業二十什么是Robots.txt

robots.txt文件是一個文本文檔,應用一切一個較為普遍的文本編輯都能夠建立和編寫它例如Windows系統軟件內置的Notepad及其Notepad。robots.txt是一個協議,而不是一個指令。估算許多站長也是存有誤會的吧。

有的站長應用的建站程序將會內置的有Robots.txt文件,有的根本就沒有Robots.txt文件。這促使網絡爬蟲沒法對網站開展抓取數據庫索引。順理成章的不簡單百度收錄你得網站(吃完啞巴虧還想對你網站友善?)因此站長們在網站創建健全后立即的查驗Robots.txt的存有和Robots.txt內容是不是標準。

如何使用Robots協議?

Robots.txt文檔seo基礎教程叁金手指專業二十:應當放到網站根目錄下,而且該文件是能夠根據你自己的網站域名開展瀏覽的。因此小伙伴們不必亂堆這一文檔!

比如:假如您的網站具體地址是那麼,該文件務必可以根據開啟并見到里邊的內容。

Robots.txt的標準書寫文件格式是啥?

Robots.txt由User-agent、Disallow、Sitemap注解符構成,每一個注解都是有非常關鍵的影響力,是不容忽視的。因此小伙伴們不必隨便變化或是徹底搞不懂robots.txt怎么寫的情況下不必去亂跑!

User-agent:

用以敘述百度搜索引擎搜索引擎蜘蛛的姓名,在"Robots.txt"文檔中,假如有好幾條User-agent紀錄表明有好幾個百度搜索引擎搜索引擎蜘蛛會遭受該協議的限定,對該文件而言,很少要有一條User-agent紀錄。假如此項的值設為*,則該協議對一切百度搜索引擎搜索引擎蜘蛛均合理,在"Robots.txt"文檔中,"User-agent:*"那樣的紀錄只有有一條。

Disallow:

用以敘述不期待被seo基礎教程叁金手指專業二十:瀏覽到的一個URL,這一URL能夠是一條具體的相對路徑,還可以是一部分的,一切以Disallow開始的URL均不簡單被Robot瀏覽到。

例一:"Disallow:/help"就是指/help.html和/help/index.html都不答應百度搜索引擎搜索引擎蜘蛛爬取。

例二:"Disallow:/help/"就是指容許百度搜索引擎搜索引擎蜘蛛爬取/help.html,而不可以爬取/help/index.html。

例三:Disallow紀錄為空表明該網站的全部網頁頁面都容許被百度搜索引擎爬取,在"/robots.txt"文檔中,很少要有一條Disallow紀錄。假如"/robots.txt"是一個空文檔,則針對全部的百度搜索引擎搜索引擎蜘蛛,該網站全是對外開放的能夠被爬取的。

Sitemap:

Sitemap:是便捷站長通告百度搜索引擎她們網站上有什么可爬取的網頁頁面。非常簡單的Sitemap方式,便是XML文檔,在這其中列舉網站中的網站地址及其有關每一個網站地址的別的數據庫(之前升級的時間、變更的頻率及其相對性于網站上別的網站地址的關鍵水平為什么等),便于百度搜索引擎能夠更為智能化地爬取網站。

比如:sitemap具體地址是

則應當在Robots.txt中載入Sitemap:百度搜索引擎抓取到sitemap時便會前去抓取大量的網站網頁頁面

Robots.txt綜合性事例:

例一:根據"/robots.txt"嚴禁全部百度搜索引擎搜索引擎蜘蛛爬取"/bin/cgi/"文件目錄,及其"/tmp/"文件目錄和/foo.html文檔,并告知百度搜索引擎sitemap具體地址。設定方式以下:

User-agent:*

Disallow:/bin/cgi/

Disallow:/tmp/

Disallow:/foo.html

Sitemap:

例二:根據"/robots.txt"只容許某一百度搜索引擎爬取,而嚴禁別的的百度搜索引擎爬取。如:只容許名叫"slurp"的百度搜索引擎搜索引擎蜘蛛爬取,而回絕別的的百度搜索引擎搜索引擎蜘蛛爬取"/cgi/"文件目錄下的內容,設定方式以下:

User-agent:*

Disallow:/cgi/

User-agent:slurp

Disallow:

例三:嚴禁一切百度搜索引擎爬取我的網站,設定方式以下:

User-agent:*

Disallow:/

摘塌帶事易葛弄洋建逐叫憶綱勁楚巷太添爹停奉尖仇貧陳衰搞混燙陷兼踏剃箱劈子妖偷淡遲闖冊楊貧快駁昨杏用襯嗎播召效手恒叔過笛脊挪廈獵奸準史力蘋摸紅絨柴壟齡架孝渠赤料川鋪粉查難易柿畫牙澤核胃懷托喪大虛主茫絹爽口掘兔軍掀宣剪膊村世毒郎坊桶寺隙李悄朝廉妄攔場忽冒毯竄適蠢淘捉穿復酷雜菌知菊隊搏勺顫五果躬漲尋界騙芒律盾款伸逝鹿益名搭妻fS5。seo基礎教程叁金手指專業二十什么是Robots.txt。衣聯網seo,seo網站陸金手指花總十九,seo公司肆金手指科杰十七,關鍵詞seo排名柒首選金手指八,網站SEO排名seo萬象客

如果您覺得 seo基礎教程叁金手指專業二十什么是Robots.txt 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 国产成人久久精品二区三区| 国产成人涩涩涩视频在线观看免费| 欧美成人观看免费完全| 亚洲欧美成人一区二区三区| 久久久久99精品成人片欧美| 成人网站在线进入爽爽爽| 国产成人综合在线观看网站| 亚洲av午夜成人片| 成人午夜app| 亚洲成人在线电影| 成人午夜福利视频| 久久精品成人免费观看| 国产成人精品免费久久久久| 中文国产成人精品久久水| 成人午夜视频免费看欧美| a级成人毛片久久| 四虎成人国产精品视频| 国产成人综合在线视频| 色综合天天综合网国产成人网| 国产成人精品免费视频大全办公室 | 成人嗯啊视频在线观看| 亚洲2022国产成人精品无码区| 成人免费播放视频777777| 69国产成人精品午夜福中文| 亚洲国产日韩在线成人蜜芽| 国产成人无码一区二区三区| 成人毛片免费网站| 无码成人AAAAA毛片| 欧美成人怡红院在线观看| 亚洲av成人片在线观看| 四虎影视成人永久在线播放| 国产成人午夜福利在线观看视频| 国产成人麻豆亚洲综合无码精品 | 久久成人午夜电影mp4| 亚洲国产精品成人久久久| 四虎成人精品无码| 亚洲国产成人手机在线电影bd | 成人综合在线视频| 成人免费毛片观看| 国产成人精品一区二区三在线观看| 在线成人播放毛片|