網站的robots.txt文本的用處有哪些?

日期:2020-08-27 / 人氣: / 文章關鍵詞:

      什么是robots協議?
  robots是網站和搜索引擎之間的一個協議。用來防止一些不想被搜索引擎索引的頁面或內容的抓取,而且可以吧sitemap地圖的路徑放在robots協議中,這樣可以幫助網站地圖的抓取。能夠凈化網站的健康度,降低網站不健康內容收錄。
  robots協議怎么寫?
  robots的常用的命令一般有:
  User-agent:*(這里的*代表的搜索引擎種類,這句話表示可以讓搜索引擎都可以訪問抓取這個網站。)
  Disallow:(這個表示禁止的意思,一些不想讓搜索引擎訪問的頁面可以把路徑寫下來。)
  Allow:(這個表示允許的意思,想要搜索引擎訪問頁面可以把路徑寫下來。)
  robots協議的作用
  通過我們上面的內容,我們對robots也有了了解。當搜索網站時,會優先訪問網站的robots協議,從中來獲取信息來抓取網站。那么如果沒有robots協議會對網站有什么影響呢?
  1、如果沒有robots,搜索引擎蜘蛛訪問網站時依舊會先訪問robots.txt,沒有的話會返回404頁面,影響雖然不大,但是也不好。
  2、沒有robots,搜索引擎蜘蛛默認抓取內容。這一點影響不是很大,但是還是取決于網站的內容,如果存在很多低質量的內容,建議還是使用robots進行xian制比較好。
  綜合上面所說的內容,robots協議還是加上比較好,沒有很麻煩,我們一般會把robots放在FTP的根目錄下,有益于蜘蛛的抓取。

作者:


Go To Top 回頂部
欧美日韩视费观看视频|久热久热免费视频中文字幕|免费人成在线观看视频色|中文字幕日韩人妻在线视频新乡市悦创网络技术有限公司