robots.txt 指定 Sitemap 和robots Meta标签

robots.txt 指定 Sitemap 和robots Meta标签

http://www.mp322.com/robots.txt

User-agent: *Sitemap: http://www.mp322.com/sitemap.xml

Disallow: /wp-admin/Disallow: /sysinfo/

今天一天之内,准确的说相隔不到3个小时,就有两个朋友在QQ上让我帮他看看网站,为什么搜索引擎不收录。从我个人角度来看,他们的站做的还不错,除了个别地方(如有几页标题相同之类)不够,没有导致不收录的因素。最后一查看robots.txt,“Disallow: /”。

回想起来,找我咨询的朋友中,还真有不少的一部分都是这样的问题,所以写出来,供不熟悉的朋友参考。

1、robots.txt是什么?

robots.txt是一个纯文本文件,用来告诉网络蜘蛛(不仅限搜索引擎蜘蛛)本站中哪些位置允许抓取,哪些位置不允许抓取。

2、如何正确放置robots.txt?

首先,robots.txt文件必须放置在网站根目录;有域名指向到次目录,在次目录放置的robots.txt文件只对此域名有效。

其次,文件名必须小写,如Robots.txt、roBots.txt、robots.TXT都是错误的。

3、robots.txt内容应该如何写?

文件应该同时包含2个域,“User-agent:”和“Disallow:”,每条指令独立一行。

(1)User-agent:

指定允许哪些蜘蛛抓取,如果给出参数,则只有指定的蜘蛛能够抓取;如值为通配符“*”号,代表允许所有蜘蛛抓取。如:

User-agent: Googlebot

只允许Google的蜘蛛抓取;

User-agent: *

允许所有蜘蛛抓取。

注意:User-agent必须出现在第一行(有意义的行,注释除外),首先声明用户代理。

(2)Disallow:

指定禁止蜘蛛抓取的目录或文件,如:

Disallow: /help.php

禁止抓取根目录下help.php文件;

Disallow: /admin/

禁止抓取根目录下的admin子目录中任何内容;

Disallow:

值为空时,表示不限制,蜘蛛可以抓取站内任何内容。

如果需要指定多个目录或文件,可以用多个“Disallow: 文件或目录名”来指定,但必须每一项单独一行。

这就是前面说到的那两位朋友网站robots.txt的问题,他们用“Disallow: /”禁止了蜘蛛抓取根目录下的所有内容。

4、robots.txt需要注意的几个问题:

  • robots.txt文件中任意一行Disallow的值为空,其他指定的项都将失效,整站允许User-agent指定的蜘蛛抓取;
  • robots.txt文件中允许使用注释,以“#”开头的内容被认作注释;但注释最好独立成一行,尽量不要加在参数后面,如“Disallow: /admin/ #manage dir”,某些蜘蛛可能将注释当作值的一部分。
  • 尽量不要在一行的前面出现空格,如“ Disallow: /”,可能某些蜘蛛无法正确读取。
  • 推荐一个robots.txt检查工具:http://tool.motoricerca.info/robots-checker.phtml

5、将你的XML格式Sitemap地址放到robots.txt中

Robin新发现,并率先在国内提出的,大家可以到点石博客中下载Robin的“网站如何被高效索引”演讲稿阅读。

加入Sitemap地址的作用是,如果搜索引擎蜘蛛能够识别此行,就能快速获知网站的XML地图文件地址,并将地图文件作为一个URL参考进行高效索引(具体哪些搜索引擎蜘蛛能够识别目前我还不清楚)。

如樂思蜀SEO博客的robots.txt,紧接着User-agent的第二行:

Sitemap: http://www.lesishu.cn/sitemap.xml

此处之前的内容,将Sitemap放在第一行的说法错误,特此更正。

robots Meta标签

robots.txt是放在网站中,文件级的网络蜘蛛授权;而robots Meta标签是放在网页中,一般用于部分网页需要单独设置的情况下。两者的功能是一样的。

Meta robots标签必须放在<head>和</head>之间,格式:

<meta name=”robots” content=”index,follow” />

content中的值决定允许抓取的类型,必须同时包含两个值:是否允许索引(index)和是否跟踪链接(follow,也可以理解为是否允许沿着网页中的超级链接继续抓取)。共有4个参数可选,组成4个组合:

  1. index,follow:允许抓取本页,允许跟踪链接。
  2. index,nofollow:允许抓取本页,但禁止跟踪链接。
  3. noindex,follow:禁止抓取本页,但允许跟踪链接。
  4. noindex,nofllow:禁止抓取本页,同时禁止跟踪本页中的链接。

以上1和4还有另一种写法:

index,follow可以写成all,如:

<meta name=”robots” content=”all” />

noindex,nofollow可以写成none,如:

<meta name=”robots” content=”none” />

需要注意的是,robots Meta标签很多搜索引擎是不支持的,只有少数搜索引擎能够识别并按给定的值抓取。所以,尽可能的使用robots.txt文件来限制抓取。

最后,给大家一个建议,不要太刻意的在robots.txt中设置过多禁止文件或目录,只设置确实不希望被搜索引擎索引的目录和文件就可以了。

特别是在不清楚文件或目录的作用时,不要轻易禁止抓取。前阵一位做旅游的朋友,网站中有大量的旅游景点图片,几大搜索引擎中却都没有索引,后来对网站检查时发现图片目录upload在管理目录admin下,被robots.txt禁止抓取了。

虽然网上关于robots的文章已经很多了,发现都不尽全面,整理了一下供参考。

作者:樂思蜀

原载:樂思蜀SEO博客

版权所有,转载时必须以链接形式注明作者和原始出处并保留本声明。

robots.txt 指定 Sitemap 和robots Meta标签相关推荐

  1. 爬虫的两大重要文件:robots.txt和sitemap.xml

    文章目录 1. 爬虫和搜索引擎的基本原理 2. robots.txt 3. sitemap.xml 1. 爬虫和搜索引擎的基本原理   网络爬虫本质上是互联网机器人,它能够自动完成对网页数据的抓取.从 ...

  2. robots.txt文件详解

    我们知道,搜索引擎都有自己的"搜索机器人"(ROBOTS),并通过这些ROBOTS在网络上沿着网页上的链接(一般是http和src链接)不断抓取资料建立自己的数据库. 对于网站管理 ...

  3. Robots.txt 协议详解及使用说明

    一.Robots.txt协议 Robots协议,也称为爬虫协议.机器人协议等,其全称为"网络爬虫排除标准(Robots Exclusion Protocol)".网站通过Robot ...

  4. robots.txt介绍

    robots.txt是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的. ...

  5. 怎样写robots.txt实例

    资料一 1.robots.txt文件是什么 robots.txt是一个纯文本文件,是搜索引擎中访问网站的时候要查看的第一个文件.robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的.每 ...

  6. 搜索引擎蜘蛛及网站robots.txt文件详解

    搜索引擎都有自己的"搜索机器人"(ROBOTS),并通过这些ROBOTS在网络上沿着网页上的链接(一般是http和src链接)不断抓取资料建立自己的数据库. 对于网站管理者和内容提 ...

  7. 如何写robots.txt?

    在国内,网站管理者似乎对robots.txt并没有引起多大重视,应一些朋友之请求,今天想通过这篇文章来简单谈一下robots.txt的写作. robots.txt基本介绍 robots.txt是一个纯 ...

  8. 如何使用robots.txt[摘自网络]

    robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游 ...

  9. 8.认识robots.txt到爬取信息

    文章目录 1.robots协议: 什么是robots.txt: robots.txt内容: robots.txt的作用: robots.txt写法: 文件写法 文件用法 Robot特殊参数: Allo ...

最新文章

  1. 无法嵌入互操作类型...请改用适用的接口 解决办法
  2. 运维侠客行杭州站沙龙回顾 | 云时代下的运维管理实践(附干货下载)
  3. java 接口的泛型方法_Java泛型/泛型方法/通配符/泛型接口/泛型泛型擦出
  4. Sys和system用户、sysdba 和sysoper系统权限、dba角色的区别
  5. WINDOWS系统Eclipse+NDK+Android + OpenCv
  6. phpcms留言板功能的实现
  7. RSS Feed Generator for PHP (兼有podcast rss - iTunes )
  8. html圆如何找到垂直中心线,一种用于找中心线及圆心的装置的制作方法
  9. 快速排序算法之我见(附上C代码)
  10. 如鹏网.Net基础2 第六章:MYSQL
  11. Python笔记_39_前端_HTML
  12. 大恒MER-1070-10GC相机 LINUX环境 QT开发记录
  13. 模拟用户操作购物车添加商品修改数量
  14. 高温熔融玻璃液位检测用激光玻璃液位计
  15. 知识图谱发展历程简介
  16. 2015年中国云计算市场回顾与展望
  17. linux每个文件标识,Linux文件系统中每个文件用____来标识。
  18. 教你一招 IDE 中比较骚的操作技巧!
  19. 用安卓手机看epub电子书用什么阅读软件好?
  20. JAVA通过epublib解析EPUB格式的电子书

热门文章

  1. 关于org.apache.jasper.JasperException: 无法为JSP编译类:
  2. 自主招生计算机专业报名条件,2017自主招生报考,需要提前做哪些准备?
  3. BEGAN-carpedm代码调试
  4. 电子商务网站设计清单:万无一失的方法
  5. ioctl() FIONREAD
  6. 梯度下降法求解线性回归
  7. 无线接收信号强度(RSSI)那些事儿
  8. python是一门面向过程的语言_python是面向对象还是面向过程?
  9. 教程篇(6.0) 07. Web过滤 ❀ FortiGate 安全 ❀ Fortinet 网络安全专家 NSE 4
  10. python的变量名命名规则_python的变量命名规范