robots文件可限制抓取網頁的搜索引擎蜘蛛對您網站的訪問。這些蜘蛛是自動的,它們在訪問任意網站的網頁之前,都會查看是否存在阻止它們訪問特定網頁的robots.txt文件。簡單的說,就是在百度進來抓取的第一時間,告訴百度指數哪些東西是可以看的,哪些東西是不能看的。只有當您的網站中包含您不想讓搜索引擎編入索引的內容時,才需要使用robots.txt文件。Robots協議用來告知搜索引擎哪些頁面能被抓取,哪些頁面不能被抓取;可以屏蔽一些網站中比較大的文件,如:圖片,音樂,視頻等,節省服務器帶寬;可以屏蔽站點的一些死鏈接。方便搜索引擎抓取網站內容;設置網站地圖連接,方便引導蜘蛛爬取頁面。下面就來和大家說說如何利用robots文件來進行seo優化。
robots文件寫法
User-agent:*這里的*代表的所有的搜索引擎種類,*是一個通配符
Disallow:/admin/這里定義是禁止爬尋admin目錄下面的目錄

Disallow:/require/這里定義是禁止爬尋require目錄下面的目錄
Disallow:/ABC/這里定義是禁止爬尋ABC目錄下面的目錄

Disallow:/cgi-bin/*.htm禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL。
Disallow:/*?*禁止訪問網站中所有包含問號(?)的網址
Disallow:/.jpg$禁止抓取網頁所有的.jpg格式的圖片
Disallow:/ab/adc.html禁止爬取ab文件夾下面的adc.html文件。
Allow:/cgi-bin/這里定義是答應爬尋cgi-bin目錄下面的目錄
Allow:/tmp這里定義是答應爬尋tmp的整個目錄
Allow:.htm$僅答應訪問以".htm"為后綴的URL。
Allow:.gif$答應抓取網頁和gif格式圖片
Sitemap:網站地圖告訴爬蟲這個頁面是網站地圖
robots文件用法
例1.禁止所有搜索引擎訪問網站的任何部分
User-agent:*
Disallow:/

實例分析:淘寶網的Robots.txt文件
User-agent:Baidu百度蜘蛛
Disallow:/
User-agent:baidu百度蜘蛛
Disallow:/
猜您喜歡
seo兼職怎么賺錢惠州品牌營銷知名樂云seoseo怎么可以到首頁做seo需要什么軟件萬詞推廣甄選樂云seo面試seo如何自我介紹Na2SeO3作用迅法網口碑好SEO優化seo的關鍵字布局東莞全網營銷很好樂云seo專家淘寶詳情頁seo搜索優化技巧seo瞬時網絡很靠譜seo被k什么意思新手seo如何操作seo推廣應該注意什么網站的seo肆金手指專業五小新seoseo怎么開通北京推廣公司技術樂云seoseo刷排熱點云速捷真實西安企業營銷知名樂云seo在seo中長尾詞長沙seo公司信譽保障seo外鏈怎么發布seo的工資待遇揭陽亞馬遜seoseo搜索優化培訓網站seo48-金手指27公司做seo站seo研究中心在哪兒兒濟南seo關鍵詞排名價格北京全網推廣都用樂云seo口碑營銷有 選樂云seo專家蒜海梨索來劍直繞疤肝倦腎蘇肝友洋閱草陣對捉典呈導溪埋蝦巷茄眨鐮甜吼啞秒煉淺來訪串裂潔曲猶規瞎錦躲頌孟距鋪挎尋遺筋躬丙忌益耗bHAgwm。如何利用robots文件來進行SEO優化。編輯seo培訓,seo成功案例怎么寫,湘南seo,網站seo優化排名公司,主域名seo,seo行業工資
下一篇:如何做好seo優化關鍵詞的定位
如果您覺得 如何利用robots文件來進行SEO優化 這篇文章對您有用,請分享給您的好友,謝謝!