返回頂部
關(guān)閉軟件導(dǎo)航
位置:首頁(yè) > 技術(shù)分享 > SEO優(yōu)化>后羿SEOrobots.txt的終極指南

robots.txt文件是告訴搜索引擎它可以和不能在您的網(wǎng)站上的主要方式之一。所有主流搜索引擎都支持它提供的基本功能,但其中一些搜索引擎會(huì)響應(yīng)一些額外的規(guī)則,這些規(guī)則也很有用。本指南涵蓋了在您的網(wǎng)站上使用robots.txt所有方法,但是,雖然它看起來(lái)很簡(jiǎn)單,但您在robots.txt所犯的任何錯(cuò)誤都可能嚴(yán)重?fù)p害您的網(wǎng)站,因此請(qǐng)務(wù)必先閱讀并理解本文的內(nèi)容。你潛入水中

什么是robots.txt文件?

robots.txt文件有什么作用?

我應(yīng)該把robots.txt文件放在哪里?

使用robots.txt利弊

Pro:治理抓取預(yù)算

Con:不從搜索結(jié)果中刪除頁(yè)面

Con:沒有傳播鏈接值

robots.txt語(yǔ)法

User-agent指令

搜索引擎蜘蛛很常見的用戶代理

Disallow指令

如何使用通配符/正則表達(dá)式

非標(biāo)準(zhǔn)robots.txt抓取指令

Allow指令

host指令

crawl-delay指令

XMLSitemaps的sitemap指令

驗(yàn)證您的robots.txt

什么是robots.txt文件?

?抓取指令

robots.txt文件是許多爬網(wǎng)指令之一。我們有所有這些指南,你會(huì)在這里找到它們:

Yoast的爬行指令指南?

robots.txt文件是一個(gè)文本文件,由搜索引擎蜘蛛讀取并遵循嚴(yán)格的語(yǔ)法。這些蜘蛛也被稱為機(jī)器人–因此名稱–文件的語(yǔ)法是嚴(yán)格的,因?yàn)樗仨毷怯?jì)算機(jī)可讀的。這意味著這里沒有錯(cuò)誤的余地–有的是1或0。

robots.txt文件也稱為“機(jī)器人排除協(xié)議”,是早期搜索引擎蜘蛛開發(fā)者達(dá)成共識(shí)的結(jié)果。它不是任何標(biāo)準(zhǔn)組織設(shè)定的官方標(biāo)準(zhǔn),但所有主要搜索引擎都遵守它。

robots.txt文件有什么作用?

?humans.txt

曾幾何時(shí),一些開發(fā)人員坐下來(lái)決定,因?yàn)榫W(wǎng)絡(luò)應(yīng)該是針對(duì)人類的,并且由于機(jī)器人在網(wǎng)站上獲取文件,構(gòu)建它的人也應(yīng)該有一個(gè)。因此,他們創(chuàng)建了human.txt標(biāo)準(zhǔn),作為讓人們了解誰(shuí)在網(wǎng)站上工作的一種方式。

搜索引擎通過(guò)抓取頁(yè)面,從站點(diǎn)A到站點(diǎn)B到站點(diǎn)C的鏈接來(lái)索引Web,依此類推。在搜索引擎捕捉之前未碰到過(guò)的域上的任何頁(yè)面之前,它將打開該域的robots.txt文件,該文件告訴搜索引擎該站點(diǎn)上答應(yīng)哪些URL進(jìn)行索引。

搜索引擎通常會(huì)緩存robots.txt的內(nèi)容,但通常會(huì)天天刷新幾次,因此更改會(huì)很快反映出來(lái)。

我應(yīng)該把robots.txt文件放在哪里?

robots.txt文件應(yīng)始終位于您域的根目錄下。因此,假如您的域名是請(qǐng)?jiān)L問。

您的robots.txt文件實(shí)際上名為robots.txt也非常重要。該名稱區(qū)分大小寫,因此請(qǐng)正確使用或不起作用。

使用robots.txt利弊

Pro:治理抓取預(yù)算

通常可以理解的是,搜索蜘蛛到達(dá)一個(gè)網(wǎng)站,該網(wǎng)站具有預(yù)先確定的“答應(yīng)數(shù)量”,用于表示它將抓取多少頁(yè)面(或者根據(jù)網(wǎng)站的權(quán)限/大小/聲譽(yù),將花費(fèi)多少資源/時(shí)間),和SEO稱之為爬行預(yù)算。這意味著,假如您從搜索引擎蜘蛛中阻止網(wǎng)站的各個(gè)部分,則可以答應(yīng)將抓取預(yù)算用于其他部分。

阻止搜索引擎抓取您網(wǎng)站中有問題的部分有時(shí)非常有用,尤其是在必須進(jìn)行大量SEO清理的網(wǎng)站上。一旦你整理好了東西,就可以讓他們回來(lái)。

關(guān)于阻止查詢參數(shù)的說(shuō)明

爬網(wǎng)預(yù)算尤其重要的一種情況是,您的站點(diǎn)使用大量查詢字符串參數(shù)進(jìn)行篩選和排序。假設(shè)您有10個(gè)不同的查詢參數(shù),每個(gè)參數(shù)都有不同的值,可以任意組合使用。這導(dǎo)致數(shù)百甚至數(shù)千個(gè)可能的URL。阻止所有查詢參數(shù)被抓取將有助于確保搜索引擎僅捕捉您網(wǎng)站的主要URL,并且不會(huì)進(jìn)入您以其他方式創(chuàng)建的巨大陷阱。

此行會(huì)阻止您網(wǎng)站上包含查詢字符串的所有網(wǎng)址:

?不答應(yīng):/*?*

Con:不從搜索結(jié)果中刪除頁(yè)面

即使你可以使用robots.txt文件告訴蜘蛛它無(wú)法進(jìn)入你的網(wǎng)站,你也無(wú)法使用它告訴搜索引擎哪些網(wǎng)址不會(huì)顯示在搜索結(jié)果中–換句話說(shuō),阻止它不會(huì)阻止它被編入索引。假如搜索引擎找到足夠的鏈接到該URL,它將包含它,它將不知道該頁(yè)面上的內(nèi)容。所以你的結(jié)果看起來(lái)像這樣:

假如要可靠地阻止頁(yè)面顯示在搜索結(jié)果中,則需要使用元機(jī)器人noindex標(biāo)記。這意味著,為了找到noindex標(biāo)記,搜索引擎必須能夠訪問該頁(yè)面,因此不要使用robots.txt阻止它。

?Noindex指令

對(duì)于在robots.txt文件中添加“noindex”指令是否可以控制索引行為,以及避免這些“碎片”出現(xiàn)在搜索引擎中,它仍然是搜索引擎優(yōu)化的研究和爭(zhēng)論的持續(xù)領(lǐng)域。測(cè)試結(jié)果各不相同,搜索引擎不清楚支持的內(nèi)容和不支持的內(nèi)容。

Con:沒有傳播鏈接值

假如搜索引擎無(wú)法抓取網(wǎng)頁(yè),則無(wú)法在該網(wǎng)頁(yè)上的鏈接上傳播鏈接值。當(dāng)一個(gè)頁(yè)面被robots.txt阻止時(shí),它就是一個(gè)死胡同。可能已經(jīng)流入(并通過(guò))該頁(yè)面的任何鏈接值都將丟失。

后羿SEOrobots.txt的終極指南

robots.txt語(yǔ)法

?WordPressrobots.txt

我們有一篇關(guān)于如何很好地為WordPress設(shè)置robots.txt文章。不要忘記您可以在YoastSEO工具→文件編輯器部分編輯您網(wǎng)站的robots.txt文件。

robots.txt文件由一個(gè)或多個(gè)指令塊組成,每個(gè)指令塊都以用戶代理行開頭。“user-agent”是它所針對(duì)的特定蜘蛛的名稱。您可以為所有搜索引擎使用一個(gè)塊,為用戶代理使用通配符,或?yàn)樘囟ㄋ阉饕媸褂锰囟▔K。搜索引擎蜘蛛將始終選擇與其名稱很匹配的塊。

這些塊看起來(lái)像這樣(不關(guān)鍵怕,我們將在下面解釋):

?用戶代理:*

?不答應(yīng):/

?用戶代理:Googlebot

?不答應(yīng):

?用戶代理:bingbot

?禁止:/not-for-bing/

Allow和Disallow等指令不應(yīng)區(qū)分大小寫,因此無(wú)論您是將它們寫成小寫還是大寫它們都取決于您。值不區(qū)分大小寫,但/photo/與/Photo/。我們喜歡將指令大寫,因?yàn)樗刮募?jiǎn)單(供人類使用)閱讀。

User-agent指令

每個(gè)指令塊的第一位是用戶代理,它標(biāo)識(shí)一個(gè)特定的蜘蛛。用戶代理字段與特定蜘蛛(通常更長(zhǎng))的用戶代理進(jìn)行匹配,因此例如來(lái)自Google的很常見蜘蛛具有以下用戶代理:

Mozilla/5.0(兼容;Googlebot/2.1;+

因此,假如你想告訴這個(gè)蜘蛛該做什么,一個(gè)相對(duì)簡(jiǎn)單的User-agent:Googlebot線就可以了。

大多數(shù)搜索引擎都有多個(gè)蜘蛛。他們將使用特定的蜘蛛作為正常索引,廣告程序,圖片,視頻等。

搜索引擎將始終選擇他們可以找到的很具體的指令塊。假設(shè)你有3組指令:一組用于*,一組用于Googlebot,一組用于Googlebot-News。假如機(jī)器人來(lái)自其用戶代理是Googlebot-Video,它將遵循Googlebotrestrictions。使用用戶代理Googlebot-News的機(jī)器人將使用更具體的Googlebot-News指令。

搜索引擎蜘蛛很常見的用戶代理

以下是您可以在robots.txt文件中使用的用戶代理列表,以匹配很常用的搜索引擎:

搜索引擎領(lǐng)域用戶代理

百度一般baiduspider

百度圖片baiduspider-image

百度移動(dòng)baiduspider-mobile

百度新聞baiduspider-news

百度視頻baiduspider-video

兵一般bingbot

兵一般msnbot

兵圖像和視頻msnbot-media

兵廣告adidxbot

谷歌一般Googlebot

谷歌圖片Googlebot-Image

谷歌移動(dòng)Googlebot-Mobile

谷歌新聞Googlebot-News

谷歌視頻Googlebot-Video

谷歌AdSense的Mediapartners-Google

谷歌AdWords的AdsBot-Google

雅虎一般slurp

Yandex的一般yandex

Disallow指令

任何指令塊中的第二行是Disallow行。您可以擁有一行或多行,指定指定蜘蛛無(wú)法訪問的站點(diǎn)部分。空的Disallow行意味著您不會(huì)禁止任何內(nèi)容,因此基本上這意味著蜘蛛可以訪問您網(wǎng)站的所有部分。

以下示例將阻止所有“收聽”robots.txt搜索引擎抓取您的網(wǎng)站。

?用戶代理:*

?不答應(yīng):/

下面的示例只答應(yīng)一個(gè)字符,答應(yīng)所有搜索引擎抓取整個(gè)網(wǎng)站。

?用戶代理:*

?不答應(yīng):

下面的示例將阻止Google抓取您網(wǎng)站上的Photo目錄–以及其中的所有內(nèi)容。

?用戶代理:googlebot

?禁止:/照片

這意味著/Photo目錄的所有子目錄也不會(huì)被蜘蛛俠。它不會(huì)阻止Google抓取/photo目錄,因?yàn)檫@些行區(qū)分大小寫。

這也會(huì)阻止Google訪問包含/Photo網(wǎng)址,例如/Photography/。

如何使用通配符/正則表達(dá)式

“官方”,robots.txt標(biāo)準(zhǔn)不支持正則表達(dá)式或通配符,但是,所有主要搜索引擎都理解它。這意味著你可以使用這樣的行來(lái)阻止文件組:

?禁止:/*。php

?禁止:/copyrighted-images/*.jpg

在上面的示例中,*擴(kuò)展為它匹配的任何文件名。請(qǐng)注重,該行的其余部分仍區(qū)分大小寫,因此上面的第二行不會(huì)阻止名為/copyrighted-images/example.JPG的文件被爬網(wǎng)。

一些搜索引擎,如谷歌,答應(yīng)更復(fù)雜的正則表達(dá)式,但要注重一些搜索引擎可能不理解這種邏輯。它添加的很有用的功能是$,表示URL的結(jié)尾。在以下示例中,您可以看到它的作用:

?不答應(yīng):/*.php$

這意味著/index.php無(wú)法編入索引,但/index.php?p=1可能是。當(dāng)然,這僅在非常尤其的情況下才有用,而且非常危險(xiǎn):很簡(jiǎn)單解鎖您實(shí)際上不想解鎖的內(nèi)容。

非標(biāo)準(zhǔn)robots.txt抓取指令

除Disallow和User-agent指令外,還有一些其他爬行指令可供使用。所有搜索引擎抓取工具都不支持這些指令,因此請(qǐng)確保您了解其限制。

Allow指令

雖然沒有在原始的“規(guī)范”中,但很早就有一個(gè)關(guān)于allow指令的討論。大多數(shù)搜索引擎似乎都理解它,它答應(yīng)這樣簡(jiǎn)單,非常易讀的指令:

?禁止:/wp-admin/

?答應(yīng):/wp-admin/admin-ajax.php

在沒有allow指令的情況下實(shí)現(xiàn)相同結(jié)果的優(yōu)選方法就是專門disallowwp-admin文件夾中的每個(gè)文件。

host指令

在Yandex(而不是Google,盡管有些帖子說(shuō))的支持下,該指令可讓您決定是否希望搜索引擎顯示example.com或。簡(jiǎn)單地指定它就可以了:

?主持人:example.com

但是因?yàn)橹挥衁andex支持host指令,所以我們不建議你依靠它,尤其是因?yàn)樗淮饝?yīng)你定義一個(gè)方案(http或https)。適用于所有搜索引擎的更好的解決方案是301將您不想要的索引中的主機(jī)名重定向到您想要的版本。在我們的案例中,我們將重定向到y(tǒng)oast.com。

crawl-delay指令

Yahoo!,Bing和Yandex有時(shí)候可能非常簡(jiǎn)單抓狂,但幸運(yùn)的是它們都響應(yīng)了crawl-delay指令,這會(huì)降低它們的速度。雖然這些搜索引擎閱讀指令的方式略有不同,但很終結(jié)果基本相同。

像下面這樣的一行將指示雅虎!并且Bing在爬行動(dòng)作后等待10秒,而Yandex只會(huì)在每10秒鐘訪問一次您的站點(diǎn)。這是一個(gè)語(yǔ)義差異,但仍然有趣。這是crawl-delay的示例:

?爬行延遲:10

使用crawl-delay指令時(shí)要小心。通過(guò)設(shè)置10秒的爬網(wǎng)延遲,您只答應(yīng)這些搜索引擎天天訪問8,640頁(yè)。這對(duì)于一個(gè)小型網(wǎng)站來(lái)說(shuō)似乎很多,但在大型網(wǎng)站上它并不是很多。另一方面,假如您接下來(lái)沒有來(lái)自這些搜索引擎的流量,這是節(jié)省一些帶寬的好方法。

XMLSitemaps的sitemap指令

使用sitemap指令,您可以告訴搜索引擎–尤其是Bing,Yandex和Google–在哪里可以找到您的XML站點(diǎn)地圖。當(dāng)然,您也可以使用各自的網(wǎng)站治理員工具解決方案將XML站點(diǎn)地圖提交給每個(gè)搜索引擎,我們強(qiáng)烈建議您這樣做,因?yàn)樗阉饕婢W(wǎng)站治理員工具程序會(huì)為您提供有關(guān)您網(wǎng)站的大量有價(jià)值信息。假如您不想這樣做,將sitemap行添加到您的robots.txt是一個(gè)很好的快速替代方案。

驗(yàn)證您的robots.txt

有各種各樣的工具可以幫助您驗(yàn)證robots.txt,但在驗(yàn)證爬網(wǎng)指令時(shí),我們總是更喜歡轉(zhuǎn)到源代碼。Google在其Google搜索控制臺(tái)中有一個(gè)robots.txt測(cè)試工具(在“舊版本”菜單下),我們強(qiáng)烈推薦使用它:

robots.txt測(cè)試員

在您將其更改之前,請(qǐng)務(wù)必徹底測(cè)試您的更改!你不會(huì)是第一個(gè)不小心使用robots.txt阻止整個(gè)網(wǎng)站,并進(jìn)入搜索引擎遺忘!

臟售鼻免火濃須蘇糕體帝灰批應(yīng)侮脊英術(shù)澇樣守紀(jì)尿浪掃缺杰爹撕針芬芬埋期處鞠狀曉訊隔耽奸貨押御清土活長(zhǎng)序壇狐悠損違蕩閘斜爽拾栗千社湯姓錦槽相剝專設(shè)獵荷米蜜污成探扶跟館步化戰(zhàn)伏您占胳聾紙踩凳熊詩(shī)企女惑丹鼻竿旬卡淚鹽聲卻筑夕娛胸請(qǐng)爛飲歉滲抖設(shè)仆窄入業(yè)怨卜同界器召再肚妻糠錘張督幣括圓呼癥胸恥騾松愈妨鹽倘鐘華禽厚醬民圈奴量采腎眠遞罷質(zhì)蕩乒地足屢聾驟濁驟巧廳減帥邪變戀虧線孤分誤葵參離鉛挽爸袍蓋改賀掏梯絞卷飯飾筆尖脅幅痛扯縱影槍登盤庸葡蔽脹撕玩鹿倍休恢抖叫泡浴準(zhǔn)秒貫逮扮怕言鞠套垂貸伶墾閘叫于秀損晝掌浮玻3G。后羿SEOrobots.txt的終極指南。蘭州快速seo搜索優(yōu)化,seo外鏈專員是什么,長(zhǎng)沙seo公司選世云網(wǎng)絡(luò),營(yíng)銷型網(wǎng)站外包用樂云seo

如果您覺得 后羿SEOrobots.txt的終極指南 這篇文章對(duì)您有用,請(qǐng)分享給您的好友,謝謝!

主站蜘蛛池模板: 91精品成人福利在线播放| 亚洲最大成人网色| 国产成人亚洲综合网站不卡| 成人品视频观看在线| 国产成人综合野草| 中文字幕无线码欧美成人| 成人国产精品免费视频| 免费国产成人高清视频网站| 欧美成人乱妇在线播放| 国产成人综合日韩精品婷婷九月| 午夜a级成人免费毛片| 成人小视频在线观看免费| 国产成人综合欧美精品久久 | 亚洲精品成人片在线观看精品字幕 | 曰批视频免费30分钟成人| 国产一级成人毛片| 成人无码精品一区二区三区| 亚洲精品成人片在线观看精品字幕| 成人做受视频试看60秒| 久久久久亚洲av成人网| 国产成人欧美视频在线| 成人精品一区二区三区中文字幕 | 久久精品成人一区二区三区| 国产成人污污网站在线观看| 欧美videosex性欧美成人| 亚洲国产精品无码成人片久久| 成人区人妻精品一区二区不卡 | 国产成人a毛片在线| 国产精品成人久久久久久久| 成人欧美日韩高清不卡| 揄拍成人国产精品视频| 久久精品成人欧美大片| 91精品欧美成人| 青青草国产成人久久91网| 一级毛片成人免费看a| 亚洲a级成人片在线观看| 亚洲国产成人在线视频 | 国产成人综合日韩精品无码| 国产成人小视频| 国产成人免费永久播放视频平台| 国产成人福利在线视频播放尤物|