robots协议也称爬虫协议、爬虫规则等,是指网站可建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,而搜索引擎则通过读取robots.txt文件来识别这个页面是否允许被抓取。通常被放置在根目录下

目前位置robots协议文件写法有如下:
user-agent:* 这里的*代表对所有的搜索引擎种类类型,*其实就是通配符的意思。
allow:/ 是代表所有的robots允许访问。
Disallow: /是代表所有的robots不允许访问。

文件写法

User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符

Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录

Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录

Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录

Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。

Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址

Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片

Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。

Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录

Allow: /tmp 这里定义是允许爬寻tmp的整个目录

Allow: .htm$ 仅允许访问以".htm"为后缀的URL。

Allow: .gif$ 允许抓取网页和gif格式图片

Sitemap: 网站地图 告诉爬虫这个页面是网站地图

robots文件的作用:

1、可以屏蔽网站内一些打不开的链接,也就是死链接

2、可以屏蔽搜索引擎蜘蛛访问网站内重复的内容和重复的页面

3、阻止搜索引擎访问网站的隐私性的内容。

4、阻止搜索引擎访问网站的后台内容。

5、告诉搜索引擎那些内容是需要被访问的。指定爬网延迟,以便在爬网程序一次加载多个内容时防止服务器过载

6、防止搜索引擎索引您网站上的某些文件(图像,PDF等)

关于robots协议相关推荐

  1. robots协议是什么?对网站SEO有什么好处?

    在网站优化中,robots协议一直是优化人员重视的细节,想要网站能够有更高的抓取和排名,此协议也起到很大的作用,那么robots协议是什么呢?它对网站的SEO有什么作用和好处呢?下面一起来了解一下. ...

  2. “盗”亦有道,关于robots协议

    robots.txt robots协议(全名为"网络爬虫排除标准")(Robots Exclusion Protocol)网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些 ...

  3. 丑憨批的爬虫笔记2(爬虫引发的问题+robots协议)

    去搜 user-agent!!!! referer!!!!! 网页中怎么查看请求头header信息 点一下Name里的东西就会出来 规模大小分类 robots协议 User-agent: * /// ...

  4. python遵循什么协议_《Python网络爬虫》2.3 Robots协议的遵守方式

    在实际操作中我们这样的爬虫该如何遵守robots协议呢? Robots协议的使用 对于任何网络爬虫来讲,它应该能够自动或人工的识别robots.txt文件,根据文件的内容再进行爬取. 即使不写这样的代 ...

  5. 【K哥爬虫普法】百度、360八年乱战,robots 协议之战终落幕

    我国目前并未出台专门针对网络爬虫技术的法律规范,但在司法实践中,相关判决已屡见不鲜,K哥特设了"K哥爬虫普法"专栏,本栏目通过对真实案例的分析,旨在提高广大爬虫工程师的法律意识,知 ...

  6. Python爬虫——爬虫是什么都可以爬的吗?Robots协议!

    Python爬虫--爬虫是什么都可以爬的吗? 初识"爬虫"这个词时,想必大家都会和我一样,认为"爬虫"就是爬取网站上的各种内容,可以抓取网站的信息为我们所用. ...

  7. 闲聊Robots协议

    其实,我了解搜索引擎方面的知识是比较晚的~~~对robots协议还是来自2012年的"3B大战"也就是360和百度之间的一场争论!! 360呢,在2012年推出了自己的一款搜索引擎 ...

  8. 爬虫:Robots协议

    Robots 协议也称作爬虫协议.机器人协议,它的全名叫作网络爬虫排除标准( Robots Exclusion Protocol ),用来告诉爬虫和搜索引擎哪些页面可以抓取,哪些不可以抓取 它通常是一 ...

  9. 第三周实验题目2——robots协议

    Robots协议起不到阻止爬虫的作用,是爬虫的"君子协定" 格式好像是这样的: https://www.jd.com/robots.txt 现在题里面给了一个靶机的IP: 大概用I ...

  10. SEO优化 - robots协议

    前言 搜索引擎都有自己的"搜索机器人"(ROBOTS),并通过这些ROBOTS在网络上沿着网页上的链接(一般是http和src链接)不断抓取资料建立自己的数据库. 网站所有者使用/ ...

最新文章

  1. 洛谷 P1207 [USACO1.2]双重回文数 Dual Palindromes
  2. BZOJ2631: tree
  3. mysql导出二进制日志_使用mysqlbinlog提取二进制日志
  4. [转]Java并发编程:线程池的使用
  5. CVPR2020 Oral|场景去遮挡新方法:港中文首次提出自监督新框架,已开源
  6. java SSH编码规范
  7. JavaSE03: Arrays工具类的使用及简单数组算法
  8. VS2010-MFC(MFC常用类:MFC异常处理)
  9. 数学竖式排版中不为人知的技巧
  10. 精通SQL的30张简图
  11. URL编码与中文相互转换
  12. rt1021环境搭建(MCUXpresso Config Tools的使用)以及外设配置
  13. ArcGIS——地理配准操作
  14. 通过Matlab实现函数的简单的微分积分运算
  15. 上偏续关系哈斯图_[离散]哈斯图偏序集--最好理解版本
  16. 软件项目管理总结(2)软件项目立项和策划
  17. http请求 响应返回
  18. 材料类学计算机吗,材料类专业适合女生吗
  19. px , point等单位之间换算
  20. PPPPPPPPPPPP

热门文章

  1. Scala入门小纸条(4)
  2. Windows引导修复
  3. form-making爬坑笔记(jeecg项目替换表单设计器)
  4. CS客户端单元测试(1) 开始
  5. linux 搜狗输入法 不能使用方法,在Linux系统中Sublime Text无法使用搜狗输入法的解决方法...
  6. matlab解韩信点兵问题,小学数学题目巧解—韩信点兵问题
  7. ThinkPHP报错The requested URL /index/index/xxx.html was not found on this server.
  8. [llvm]查看O3使用了哪些pass
  9. JAVA集合中常见的List和Map用法
  10. acwing每日一题之贝茜放慢脚步