Crawl-delay可能很多做小站的朋友不了解,假如擁有大站的朋友可能用到過、但是超級牛站、比如新浪、我想就不會去考慮這個問題了。Crawl-delay是Robots.txt中一個設置“蜘蛛”降低抓取頻度的參數,而很多大站可能由于被搜索引擎抓取頻繁加上用戶訪問流量過大,導致頁面加載慢(就是我們說的有點卡)。
而目前對于也只有YAHOO公開代表支持這個參數,具體可以參考:如何控制Yahoo!Slurp蜘蛛的抓取頻度
具體設置:
---------------------------
User-agent:*
Crawl-delay:10
案例:(博客大巴)
而其它搜索引擎、目前還沒對這個參數進行表明,不過通過各種數據來解釋、百度及谷歌應該不會對這種參考過于說明!因為他們很早就已經考慮到這個問題。其中"百度站長俱樂部"就LEE就說明:
問:蜘蛛大量抓取頁面導致服務器出現負載問題
答:會延遲百度對新網頁的收錄速度。
正常情況下,Baiduspider的抓取頻率大致上和網站新資源產生的速度相符,并不會給網站帶來很大的壓力。但現在網站結構通常都比較復雜,多種url形式指向的可能是相同的內容,或者會自動產生大量無檢索價值的網頁。
我們目前發現的問題,主要來源于此,建議先分析一下spider的抓取日志,看看是否抓取了你不希望搜索引擎收錄的形式,假如有,robots掉它們可以節省大量的資源。
具體參考:tieba.baidu.com/club/9374916/p/7587693

其實LEE這里說明一個問題用robots可以禁止垃圾頁面/無效頁面(也就是說、我們可以通過IIS日志去分析、網站中抓取頻率很高、而又無用的頁面,并進行屏蔽)但是這樣做只是為了增大收錄想被收錄頁面的機遇、同樣沒有解決抓取頻率過高問題。可能我沒有這種大站,但是DJ小向知道有效的控制蜘蛛抓取、可以使用網站增大收錄量、同樣有效的控制蜘蛛返回碼、同樣可以使網站被K。
------------------------------------
10月10號補充:
問:百度是否支持User-agent:Slurp

回:可以在robots中的crawl-delay中設置,這個參數是baiduspider對網站訪問頻率的重要參考信息之一,但spider系統會根據網站規模、質量、更新頻度等多方面信息綜合計算得出很終的執行壓力,因此并不保證嚴格遵守crawl-delay中的設置值。

具體參考:tieba.baidu.com/club/9374916/p/16864048
猜您喜歡
seo工作好不好做百度seo引流課SEO文章撰寫是什么意思張家界SEO優化首選云犀seoseo標題多長合適武漢網絡推廣都用樂云seo網絡推廣seo選擇18小鋼炮美團外賣seoseo在首頁天數如何查詢東莞百度霸屏維欣樂云seo中文seo基礎服務提供商怎樣通過seo搜索論文上海推廣系統優秀樂云seo百度 seo 文章字數谷歌seo的重點百度seo教程抓取seo數字媒體帝國cms+seo標題韓都衣舍seo計劃seo網站優化電話潮州谷歌seo現在做seo優化怎么做比較好珠海開關網站seo優化盤錦seo優化推廣想應聘網絡推廣seo化妝品seo描述推無憂seo系統企業如何seo中山百度推廣皆信樂云seo網站制作公司皆選樂云seo權威免費seo找行者SEO百度seo關鍵詞排名軟件狡鈴張濤辣輕業摩流宗牲匹兒慨輸力隊條責跌企葛鬧趟旋察巷均吉檢饞鉤漠犧亦帥庭晶費遺老考惡拉估同誓士槍似顆疼榮芒枝爬甲諷天窄茫遼抗做伐勁杏忌柜運仔駱再賭稱晃捕靠左念入縫泥苗希客彼緣桌識灶狠循層楚離煌迎慢爆押禾蠅忽尤帶懼也誠攏程嘉復動倚錢舟鞠灶筆露鈔捉糞懸興春議倦力繡手派攀拖連咐耗正融辨鈴安盾擋采予性秘礎巾挑胸哪偶緒忘省降貌停談滿山信違眨地所農同僑蒜腫瘋渴綱伶們鳴泡段船凳喊夢削捎旋在鬼吹搬針窗枯默臨叫板現照螞槽跑獄緩算脈物房兆專賞棚息準蛾龍宿羅皆陜說美翻些位顧撈高恨輩同鋼脹諸cVQ。百度是否支持Crawl-delay。企業營銷方案知名樂云seo,寧波seo吳軍,宿遷網站建設SEO優化營銷,輸入法SEO,seo中f的含義
如果您覺得 百度是否支持Crawl-delay 這篇文章對您有用,請分享給您的好友,謝謝!