一、scrapy简介

Scrapy 是用纯 Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架, 用途非常广泛

Scrapy 使用了 Twisted(其主要对手是Tornado)异步网络框架来处理网络通讯,可以加快 我们的下载速度,不用自己去实现异步框架,并且包含了各种中间件接口,可以灵活的完成 各种需求

(1)、下载scrapy

pip install scrapy

二、scrapy开发流程

1、新建项目

scrapy startproject 项目名

2、新建spider–爬虫模板

先进入项目目录下

命令:scrapy genspider [py文件的名称] [spider爬取的网址]

文件中属性的含义:

3、更改配置-settings.py的两个配置

(1)headers:配置scrapy下载时的请求头

(2)robots协议:

全称:网络爬虫排除标准

​ 作用:robots协议规定了,搜索引擎哪些数据可以爬取,哪些不可以爬取的协议文件

​ scrapy默认遵循robots协议的

4、运行命令

scrapy crawl spider_name [–nolog]

5、提取数据

参数repsonse有如下内容:

对于一个提取数据的方法,它外部不会提取出两个内容:

  • 一个url

  • item

    所以在spider组件中的所有的parse方法,将来只能yield出两个内容:

    • 一个url

      yield scrapy.Requests(
      url=url,

       callback=函数,encoding =编码 )
      
    • item

      yield item

6、编写item

item.py结构如下:注意:这些字段必须不能为空

导入使用相对路径

7、数据的保存

当在spider中yiled一个item时候,scrapy会将这个item交给pipelines.py来处理,想要利用上述功能,必须先要配置

(1)配置pipelines

(2)编存储数据的pipelines.py

三、pipelines管道原理

四、scrapy框架图

  • Scrapy Engine(引擎): 负责 spider、ItemPipeline、Downloader、Scheduler 中间的通讯, 信号、数据传递等
  • Scheduler(调度器): 它负责接受引擎发送过来的 Request 请求,并按照一定的方式进 行整理排列,入队,当引擎需要时,交还给引擎
  • Downloader(下载器): 负责下载 Scrapy Engine(引擎)发送的所有 Requests 请求,并将 其获取到的 Responses 交还给 Scrapy Engine(引擎),由引擎交给 spider 来处理
  • spider(爬虫): 它负责处理所有 Responses,从中分析提取数据,获取 Item 字段需要 的数据,并将需要跟进的 URL 提交给引擎,再次进入Scheduler(调度器)
  • Item Pipeline(管道): 它负责处理 spider 中获取到的 Item,并进行后期处理(详细分析、 过滤、存储等)
  • Downloader Middlewares(下载中间件): 你可以当作是一个可以自定义扩展下载功能 的组件
  • SpiderMiddlewares(spider中间件): 你可以理解为是一个可以自定义扩展和操作引擎 和 spider 中间通信的功能组件(比如进入 spider 的 Response 和从 spider 出去的 Requests)

五、Scrapy 中间件

简介: 中间件是Scrapy里面的一个核心概念,使用中间件可以在爬虫的请求发起之前或者请求返回之后对数据进行定制化修改,从而开发出适应不同情况的爬虫

分类: 爬虫中间件和下载中间件

1、新建一个py文件

2、在文件新建一个类,这个必须有一个方法:process_request(),在process_request方法中进行对请求的处理

3、在settings.py中配置下载中间件

自定义下载(设置selenium下载):

from selenium import webdriver
from scrapy.http import HtmlResponse
class SleniumDownloadMiddle(object):def process_request(self, request, spider):'''下载中间件处理requests方法:param request::param spider::return:'''#dirver不能放到init方法中。#当这个网站必须用selenium,就建议不考虑使用scrapy。#但是使用selniunm请求次数比较有限,可以考虑使用seleniumdriver = webdriver.Chrome()driver.get(request.url)driver.implicitly_wait(20)html_str = driver.page_source# - return None: continue processing this request --继续到下载器# - or return a Response object--自定义下载--HtmlResponse# - or return a Request object--设置代理# - or raise IgnoreRequest: process_exception() methods of---过滤request#body:响应正文return HtmlResponse(url=request.url,body=html_str,request=request,ecoding='utf-8')

自定义setting配置

# 自定义配置
custom_settings = CUSTOM_SETTINGS

可以将我们自定义的一些配置字典覆盖scrapy的配置

import hashlib
CUSTOM_SETTINGS = {#robotes协议'ROBOTSTXT_OBEY': False,#请求头'DEFAULT_REQUEST_HEADERS' : {'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8','Accept-Language': 'en','X-Requested-With': 'XMLHttpRequest','User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36',},#下载中间件'DOWNLOADER_MIDDLEWARES' : {'douban_read.my_middle_wares.SleniumDownloadMiddle': 543,},#pipelines'ITEM_PIPELINES' :{'douban_read.pipelines.MongoPipeline': 300,},#数据库的url'MONGO_URI' :'localhost',#数据的名字'MONGO_DATABASE' :'douban_read',
}
def get_md5(value):return hashlib.md5(value.encode('utf-8')).hexdigest()def update_to_mongo(db,collectionNmae,id,url,item):''':param db: db引用:param collectionNmae: 集合名:param id: item的更新字典:param url: 生成id字段:param item::return:'''item[id] = get_md5(item[url])db[collectionNmae].update({id:item[id]},{'$set':dict(item)},True)print(item)

scrapy保存到mongo

import pymongo
from .my_settings import get_md5,update_to_mongo
class MongoPipeline(object):def __init__(self, mongo_uri, mongo_db):self.mongo_uri = mongo_uriself.mongo_db = mongo_db@classmethoddef from_crawler(cls, crawler):'''scrapy每个组件的入口:param crawler::return:'''return cls(mongo_uri=crawler.settings.get('MONGO_URI'),mongo_db=crawler.settings.get('MONGO_DATABASE', 'items'))def open_spider(self, spider):self.client = pymongo.MongoClient(self.mongo_uri)self.db = self.client[self.mongo_db]def close_spider(self, spider):self.client.close()def process_item(self, item, spider):update_to_mongo(self.db,'小说','book_id','book_url',item)return item

标识一个请求的方法

当我们发送二次请求是,可以说使用meta参数来标记一个请求:


在中间件中,当我们想要自定义下载时,可以通过这个参数来进行不同请求的不同处理:

scrapy设置代理的方法:

六、上市公司案例:

技术点:

  • start_request方法

     # start_urls = ['http://www/']#start_urls之所将url写入之后,就可以发送请求,原因是父类的start_request()的逻辑#就是从start_urls里面遍历url,发送请求。#start_urls的功能是父类的start_reuqest方法赋予的,##如果start_request()被重写了,start_urls还有用吗?#当然没用》?def start_requests(self):'''这个第一个请求#scrapy启动之后,会先找这个方法作为整个程序启动开始的url位置。:return:'''yield scrapy.Request()/scrapy.FormReuqst()
  • 发送post请求:FormRequest—post对象

     yield scrapy.FormRequest(url=ajax_url,formdata=formdata,callback=self.parse,encoding='utf-8')
  • 提取数据在spider中我们可以直接yield 一个字典,但是相比与item类,缺少了字段缺失校检。

  • 在中间件中设置请求头:

scrapy框架简介相关推荐

  1. 爬虫基础(五)-----scrapy框架简介

    ---------------------------------------------------摆脱穷人思维 <五> :拓展自己的视野,适当做一些眼前''无用''的事情,防止进入只关 ...

  2. Python爬虫基础讲解(二十三):scrapy框架简介

    Python爬虫.数据分析.网站开发等案例教程视频免费在线观看 https://space.bilibili.com/523606542 Python学习交流群:1039649593 scrapy是一 ...

  3. Scrapy 框架简介 抓取一点资讯

    什么是scrapy ? 1 Scrapy是用纯Python实现一个为了爬取网站数据.提取结构性数据而编写的应用框架,用途非常广泛 2 Scrapy 使用了 Twisted['twɪstɪd](其主要对 ...

  4. python爬虫程序框架的理论是什么_Python网络爬虫(scrapy框架简介和基础应用)

    一.什么是Scrapy? Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,非常出名,非常强悍.所谓的框架就是一个已经被集成了各种功能(高性能异步下载,队列,分布式,解析,持久化等) ...

  5. Python爬虫之Scrapy框架系列(1)——初识Scrapy框架【安装+简介+运行流程+组件介绍】

    目录: 1.Scrapy模块安装 2.Scrapy框架简介 2.1 Scrapy是个啥? 2.2 我们为啥要用这玩意呢? 3.运行流程 3.1 引入: 3.2 进入正题: 3.3 数据流: 3.4 中 ...

  6. python中scrapy框架_简述python Scrapy框架

    一.Scrapy框架简介 Scrapy是用纯Python实现一个为了爬取网站数据,提取结构性数据而编写的应用框架,用途非常广泛.利用框架,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网 ...

  7. 14-爬虫之scrapy框架的基本使用01

    scrapy框架 简介:Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,非常出名,非常强悍.所谓的框架就是一个已经被集成了各种功能(高性能异步下载,队列,分布式,解析,持久化等)的 ...

  8. python爬虫之Scrapy框架,基本介绍使用以及用框架下载图片案例

    一.Scrapy框架简介 Scrapy是:由Python语言开发的一个快速.高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据,只需要实现少量的代码,就能够快速的抓取. S ...

  9. pythonscrapy框架_简述python Scrapy框架

    一.Scrapy框架简介 Scrapy是用纯Python实现一个为了爬取网站数据,提取结构性数据而编写的应用框架,用途非常广泛.利用框架,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网 ...

最新文章

  1. 堆栈,数据,文本,heap,bss,text data,stack
  2. 关于大XML文件与大节点处理(System.Xml.XmlTextReader)
  3. SO_SNDTIMEO和SO_RCVTIMEO
  4. css 图片换行_前端学习口诀VI:html+css口诀结尾篇,值得收藏!
  5. 北斗导航 | GPS卫星导航技术重要人物简介
  6. SparkSQL性能优化
  7. .NET存储过程入门
  8. 腾讯不允许将会员借给别人用,大家怎么看?
  9. 快速排序——三种划分方式
  10. 设计师学习HTML/CSS之路-09
  11. PLC和MCU单片机有什么差异
  12. BZOJ2286 [Sdoi2011]消耗战
  13. SQL Server中以星期一为每周第一天 计算周数
  14. GEF入门级的helloword教程和示例工程代码
  15. 腾讯qq群推广“一键加群”的一个细节
  16. 淘客菜鸟百度贴吧怎么发帖子操作淘宝客
  17. 矩阵的生成及对角线运算
  18. 【违规举报】违规举报方法步骤
  19. stm32—温湿度传感器
  20. 个性化个人主页html5模板

热门文章

  1. 7-15 Zf系列之天机 (20 分)
  2. amesim与matlab联合仿真原理,amesim与matlab联合仿真步骤(自己总结)
  3. Java基础-遍历数组
  4. ros 雷达 slam 导航 文件分析
  5. android:在照片上绘制涂鸦
  6. 沐风老师3dsMax高脚杯(酒杯)建模教程
  7. Java高级工程师必备知识!华为java机试题库社招
  8. vivo手机总是发烫,教你这样设置,瞬间降温
  9. c++线程中的几种锁
  10. 用GUI 自动化控制鼠标和键盘