国产麻豆一区二区精彩视频-国产麻豆一区精品视频-国产麻豆一区在线-国产毛a片久久久久无码-国产毛片av一区二区三区网站-国产毛片精品av一区二区

robots.txt文件是什么?robots.txt的寫法

2017/2/14 8:47:02   閱讀:1754    發布者:1754

  robots.txt是一個純文本文件,是搜索引擎訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。每個站點最好建立一個robots.txt文件,對網站SEO優化有很很好的作用。

  每當搜索蜘蛛來尋找并不存在的robots.txt文件時,服務器將在日志中記錄一條404錯誤,所以你應該在網站中添加一個robots.txt(即使這個robots.txt文件只是一個空文件)。

  robots.txt的寫法(語法)

  1)User-agent: 該項的值用于描述搜索引擎蜘蛛的名字。如果該項的值設為*,則該協議對任何機器人均有效。

  2)Disallow: 該項的值用于描述不希望被訪問到的一個URL,一個目錄或者整個網站。以Disallow開頭的URL 均不會被搜索引擎蜘蛛訪問到。任何一條Disallow記錄為空,說明該網站的所有部分都允許被訪問。

  3)用法舉例:

  網站目錄下所有文件均能被所有搜索引擎蜘蛛訪問

  User-agent: *

  Disallow:

  禁止所有搜索引擎蜘蛛訪問網站的任何部分

  User-agent: *

  Disallow: /

  禁止所有的搜索引擎蜘蛛訪問網站的幾個目錄

  User-agent: *

  Disallow: /a/

  Disallow: /b/

  禁止搜索引擎蜘蛛訪問目錄a和目錄b

  User-agent: Googlebot

  Disallow:

  只允許某個搜索引擎蜘蛛訪問

  您應該限制網站某些文件不被蜘蛛抓取。

  一般網站中不需要蜘蛛抓取的文件有:后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。

主站蜘蛛池模板: 波多野结衣在线免费播放 | 韩国久久久久无码国产精品 | 男人女人午夜视频免费 | 米奇狠狠干 | 粉嫩小泬无遮挡久久久久久 | 久久久久成人精品免费播放动漫 | 99热久久66是国产免费 | 男女交叉视频 | 免费精品人在线二线三线区别 | 人人看人人爱 | 亚洲国产精品热久久2022 | 欧洲日本一线二线三线区本庄铃 | 久久这里有精品 | 小说区图片区激情区视频区 | 国产成人乱色伦区 | 国产亚洲精品久久久久婷婷图片 | 久久久精品视频免费观看 | 泰国一级毛片aaa下面毛多 | 久草在线视频播放 | 波多野结衣免费免费视频一区 | 女人下边被添全过视频 | 精品人人做人人爽久久久 | 亚洲成人色区 | 国产精品免费视频能看 | 国产精品亚洲综合网站 | 成人小视频在线观看 | 免费福利入口在线观看 | 久草福利在线 | 亚洲 在线 成 人色色 | 99在线热视频只有精品免费 | 午夜.dj高清在线观看免费8 | 99久久精品国产免看国产一区 | 欧美hdjzz| 亚洲av永久无码一区二区三区 | 小雪尝禁果又粗又大的视频 | 国产午夜伦鲁鲁 | 狠狠gao| 日本视频在线看 | 国产三级韩国三级日产三级 | 欧美高清在线精品一区 | 99综合精品久久 |