爱占SEO培训中心 点击 加我 QQ 说你的需求。

湖南seo:robots.txt协议文件的写法以及使用方法详解和文件配置

SEO每日一贴 admin 评论

湖南seo:robots.txt协议文件的写法以及使用方法详解和文件配置,鉴于网络安全与隐私的考虑,搜索引擎遵循robots.txt协议。通过根目录中创建的纯文本文件robots.txt,网站可以声明不想被robots访问的部分。每个网站都可以自主控制网站是否愿意被搜索引擎收录

  湖南seo:robots.txt协议文件的写法以及使用方法详解和文件配置

湖南seo


  什么是robots.txt协议文件

  搜索引擎通过一种爬虫spider程序(又称搜索蜘蛛、robot、搜索机器人等),自动搜集互联网上的网页并获取相关信息。

  鉴于网络安全与隐私的考虑,搜索引擎遵循robots.txt协议。通过根目录中创建的纯文本文件robots.txt,网站可以声明不想被robots访问的部分。每个网站都可以自主控制网站是否愿意被搜索引擎收录,或者指定搜索引擎只收录指定的内容。当一个搜索引擎的爬虫访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果该文件不存在,那么爬虫就沿着链接抓取,如果存在,爬虫就会按照该文件中的内容来确定访问的范围。

  湖南seorrobots.txt协议必须放置在一个站点的根目录下,而且文件名必须全部小写。

  robots.txt文件的格式

  User-agent: 定义搜索引擎的类型

  Disallow: 定义禁止搜索引擎收录的地址

  Allow: 定义允许搜索引擎收录的地址

  我们常用的搜索引擎类型有:

  google蜘蛛:googlebot

  百度蜘蛛:baiduspider

  yahoo蜘蛛:slurp

  alexa蜘蛛:ia_archiver

  msn蜘蛛:msnbot

  altavista蜘蛛:scooter

  lycos蜘蛛:lycos_spider_(t-rex)

  alltheweb蜘蛛:fast-webcrawler

  inktomi蜘蛛: slurp

湖南seo

  robots.txt协议文件的写法

  User-agent: *    这里的*代表的所有的搜索引擎种类,*是一个通配符

  Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录

  Disallow: /require/   这里定义是禁止爬寻require目录下面的目录

  Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录

  Disallow: /ABC 这里定义是禁止爬寻ABC整个目录

  Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。

  Disallow: /*?* 禁止访问网站中所有的动态页面

  Disallow: .jpg$ 禁止抓取网页所有的.jpg格式的图片

  Disallow:/ab/adc.html 禁止爬去ab文件夹下面的adc.html所有文件

  User-agent: *   这里的*代表的所有的搜索引擎种类,*是一个通配符

  Allow: /cgi-bin/  这里定义是允许爬寻cgi-bin目录下面的目录

  Allow: /tmp 这里定义是允许爬寻tmp的整个目录

  Allow: .htm$ 仅允许访问以".htm"为后缀的URL。

  Allow: .gif$ 允许抓取网页和gif格式图片

  robots.txt协议文件用法举例

  例1. 禁止所有搜索引擎访问网站的任何部分

  User-agent: *

  Disallow: /

  实例分析:淘宝网的 Robots.txt文件

  User-agent: Baiduspider

  Disallow: /

  很显然淘宝不允许百度的机器人访问其网站下其所有的目录。

  例2. 允许所有的robot访问 (或者也可以建一个空文件 “/robots.txt” file)

  User-agent: *

  Disallow:

  例3. 禁止某个搜索引擎的访问

  User-agent: BadBot

  Disallow: /

  例4. 允许某个搜索引擎的访问

  User-agent: baiduspider

  Disallow: User-agent: *Disallow: /

湖南seo

  例5.robots.txt协议一个简单例子

  在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。

  需要注意的是对每一个目录必须分开声明,而不要写成 “Disallow: /cgi-bin/ /tmp/”。

  User-agent:后的*具有特殊的含义,代表“any robot”,所以在该文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”这样的记录出现。

  User-agent: *

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /~joe/

  Robot特殊参数:

  允许 Googlebot:

  如果您要拦截除 Googlebot 以外的所有漫游器访问您的网页,可以使用下列语法:

  User-agent:

  Disallow:/

  User-agent:Googlebot

  Disallow:

  Googlebot 跟随指向它自己的行,而不是指向所有漫游器的行。

  “Allow”扩展名:

  Googlebot 可识别称为“Allow”的 robots.txt 标准扩展名。其他搜索引擎的漫游器可能无法识别此扩展名,因此请使用您感兴趣的其他搜索引擎进行查找。“Allow”行的作用原理完全与“Disallow”行一样。只需列出您要允许的目录或页面即可。

  您也可以同时使用“Disallow”和“Allow”。例如,要拦截子目录中某个页面之外的其他所有页面,可以使用下列条目:

  User-Agent:Googlebot

  Disallow:/folder1/

  Allow:/folder1/myfile.html

  这些条目将拦截 folder1 目录内除 myfile.html 之外的所有页面。

  如果您要拦截 Googlebot 并允许 Google 的另一个漫游器(如 Googlebot-Mobile),可使用”Allow”规则允许该漫游器的访问。例如:

  User-agent:Googlebot

  Disallow:/

  User-agent:Googlebot-Mobile

  Allow:

  使用 * 号匹配字符序列:

  您可使用星号 (*) 来匹配字符序列。例如,要拦截对所有以 private 开头的子目录的访问,可使用下列条目:

  User-Agent:Googlebot

  Disallow:/private*/

  要拦截对所有包含问号 (?) 的网址的访问,可使用下列条目:

  User-agent:*

  Disallow:/*?*

  使用 $ 匹配网址的结束字符

  您可使用 $ 字符指定与网址的结束字符进行匹配。例如,要拦截以 .asp 结尾的网址,可使用下列条目:

  User-Agent:Googlebot

  Disallow:/*.asp$

  您可将此模式匹配与 Allow 指令配合使用。例如,如果 ? 表示一个会话 ID,您可排除所有包含该 ID 的网址,确保 Googlebot 不会抓取重复的网页。但是,以 ? 结尾的网址可能是您要包含的网页版本。在此情况下,可对 robots.txt 文件进行如下设置:

  User-agent:*

  Allow:/*?$

  Disallow:/*?

  Disallow:/ *?

  一行将拦截包含 ? 的网址(具体而言,它将拦截所有以您的域名开头、后接任意字符串,然后是问号 (?),而后又是任意字符串的网址)。

  Allow: /*?$ 一行将允许包含任何以 ? 结尾的网址(具体而言,它将允许包含所有以您的域名开头、后接任意字符串,然后是问号 (?),问号之后没有任何字符的网址)。

  Robots Meta标签

  Robots.txt文件主要是限制整个站点或者目录的搜索引擎访问情况,而Robots Meta标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots Meta标签也是放在页面的中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。

  Robots Meta标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。

  index指令告诉搜索机器人抓取该页面;

  follow指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;

  Robots Meta标签的缺省值是index和follow,只有inktomi除外,对于它,缺省值是index、nofollow。

  需要注意的是:上述的robots.txt和Robots Meta标签限制搜索引擎机器人(ROBOTS)抓取站点内容的办法只是一种规则,需要搜索引擎机器人的配合才行,并不是每个ROBOTS都遵守的。

  目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于RobotsMETA标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令“archive”,可以限制GOOGLE是否保留网页快照。

  Sitemap 网站地图

  对网站地图的新的支持方式,就是在robots.txt协议文件里直接包括sitemap文件的链接.

  ​湖南seor认为robots.txt是一个简单的以.txt结尾的文本文件,是搜索引擎Robot(也叫搜索引擎机器人)程序抓取网页时要访问的第一个文件。robots.txt文件有什么作用?通过robots.txt文件,可以和各大搜索引擎很友好的对话,引导搜索引擎机器人抓取你推荐的网页,避免一些意义不大或无用网页,例如网站后台、会员交互功能等,这在一定程度上也节省服务器网络资源。另外,robots.txt文件对SEO的意义也很重要,可以很好的避免重复、相似网页,以及一些关键字权重流失;写好robots.txt文件,是每个SEOer必做的功课之一。

  

湖南seo

 

  如何配置robots.txt协议文件?配置robots.txt协议文件很简单,桌面->右键->文本文档,命名为robots.txt,注意这个文档是以“.txt”结尾。在robots.txt文件里写好规则,用FTP软件上传到你的网站根目录下即可。想检查robots.txt文件配置是否正确,只用在浏览器输入网址:http://你的域名/robots.txt,看能否正常访问即可。robots.txt文件写法

  

湖南seo优化

 

  robots.txt协议文件写法非常简单,通常以User-agent开始,包含一行或多行Disallow或Allow记录;在robots.txt文件中可以使用“#”进行注释,具体使用方法和PHP一样;另外,robots.txt文件支持*|$|?等通配符。看个简单的例子 # robots.txt文件怎么写? User-agent: * #对所有搜索引擎Robot开放 Disallow: /wp-content/ #禁止访问wp-content目录下任何内容

  关于robots.txt文件函数说明:User-agent该项的值用于描述搜索引擎Robot的名称,至少要有一条User-agent记录;如果User-agent的值为*,则表示该协议对所有搜索引擎Robot都有效;在robots.txt文件中“User-agent: *”只能有一条,可以同时出现“User-agent: Baiduspider”和“User-agent: Googlebot”的情况。附:常见搜索引擎蜘蛛Robots名称 Baiduspider http://www.baidu.com ia_archiver http://www.alexa.com Googlebot http://www.google.com Scooter http://www.altavista.com FAST-WebCrawler http://www.alltheweb.com Slurp http://www.inktomi.com MSNBOT http://search.msn.com

  Disallow该项的值用于描述不希望被Robot访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被Robot访问到;注意“Disallow: /test和“Disallow: /test/”的区别,虽说只区别于一个反斜杠“/”,不过意义完全不同。“Disallow: /test”表示可以禁止的URL包括:/test、/testabc.html、/test/abc这三种形式;“Disallow: /test/”则允许Robot访问/test、/testabc.html,禁止访问/test/abc这种形式。如果Disallow记录的值为空,即“Disallow:”格式,则说明该网站的所有内容可以被任何搜索引擎Robot抓取;在robots.txt文件,如果有声明User-agent,至少要有一条Disallow记录。Allow该项和Disallow对立,表示允许搜索引擎Robot访问指定内容。robots.txt文件用法实例允许所有搜索引擎Robot访问 User-agent: * Disallow:

  或者robots.txt文件为空,什么也不写,也能达到同样的效果。禁止所有搜索引擎Robot访问网站的任何内容 User-agent: * Disallow: /

  禁止所有搜索引擎Robot访问网站的指定内容(如下例中的aaa、bbb、ccc目录) User-agent: * Disallow: /aaa/ Disallow: /bbb/ Disallow: /cccc/

  禁止指定搜索引擎Robot访问(如下例中的Google机器人:Googlebot) User-agent: Googlebot Disallow: /

  只允许指定搜索引擎Robot访问(如下例中的百度机器人:Baiduspider) User-agent: Baiduspider Disallow: User-agent: * Disallow: /

  向搜索引擎提交站点地图 http://你的域名/sitemap.xml

  目前各大搜索引擎对站点地图支持良好,除了sitemap.xml这种格式外,还推荐sitemap.html这种静态格式,好处多多,不再累述。robots.txt文件十个注意事项1)robots.txt文件名必须全部小写,不要为追求个性写成RoboTs.txt等形式;2)robots.txt文件只能放在网站根目录下面,其它位置无效;3)robots.txt文件内容对大小写敏感,尤其是包含网址的部分。虽说很多搜索引擎对网址之外的部分没有严格的大小写限制,但是从搜索引擎的严谨性和个人对网站的要求方面来说,还是建议区分大小写;4)通常,robots.txt文件里只有三个函数:User-agent、Disallow和Allow,通常我们使用前两个组合限制抓取就可以了,个人认为没有必要使用Allow,默认搜索引擎是会抓取你网站所有内容的;5)robots.txt文件里不要放其它无关内容,要严格遵从规范。可以参考小拼SEM博客的robots.txt文件写法;6)robots.txt文件只是和搜索引擎的一个“君子协议”,并不意味着每个搜索引擎都严格遵守robots.txt的规则,按照你的意图来抓取网页,要清楚,你的网站在搜索引擎面前没有什么“秘密”;7)要检查robots.txt文件是否达到了预期的效果,可以通过谷歌网站站长工具中的robots.txt工具测试;8)禁止搜索引擎收录单独页面。在之前“关于rel=”external nofollow” nofollow精彩点评”一文中,介绍过Robots Meta标签,它区别于robots.txt文件。robots.txt文件主要是限制搜索引擎对整个站点或者目录的访问情况,而Robots Meta标签则是针对一个具体的页面。通常Robots Meta标签的默认值是index和follow,只有inktomi除外,对于它,默认值是index,nofollow。Robots Meta标签总共有四种组合:或或

  9)目前绝大多数搜索引擎是支持robots.txt文件规则的,Robots META标签则不是。Google一如既往地强大,对这两种形式都完美支持;10)建议站点根目录下要放一个robots.txt文件,哪怕是空白文件也好。虽说不放robots.txt文件也没什么影响,但是考虑到Robot访问站点时,第一目标就是robots.txt文件,还是顺着它的意思办吧,谁让游戏规则是它定的呢?!以上就是robots.txt文件配置和使用方法详解了,希望能对你有所帮助!有关robots.txt协议文件的写法、用法,如果还有什么疑问,可以给联系湖南seo军哥。

  本文由爱占SEO培训中心网络整编不代表本站任何观点,阅读本文还可以阅读其他相关SEO相关文章。

来源:爱占SEO培训中心,欢迎分享,(QQ:1927992502)

喜欢 (0) or 分享 (0)
发表我的评论
取消评论

表情

您的回复是我们的动力!

  • 昵称 (必填)
  • 验证码 点击我更换图片

网友SEOer最新评论