本次爬取是采用异步方法,异步请求来爬取http://db.auto.sohu.com/cxdata/的数据, 数据要求是提取每个车辆品牌每个车型的每个月份的销量, 数据是ajax加载的, 还是需要抓包获取,难点在于数据的对应以及整体思路是怎么实现爬取的。代码放在了https://github.com/dongxun1/The-Cars-Sales-Nums,里面包含了自定义的mysql储存,详细的提取步骤以及思路放在了README.md中。
以及一个配置文件,cars.py采集函数。

主代码:

from Test.Homework.configs import *
import aiohttp
import asyncio
import datetime
import re
import pymongo
from Test.Homework.configs_mysql import MYSQL
print(datetime.datetime.today(), '开始采集')class AioCar(object):def __init__(self):#  从这里面获取总的车辆品牌id, 注意,这是总的, 每个品牌id 又对应多个车型self.url_1 = 'http://db.auto.sohu.com/cxdata/xml/basic/brandList.xml'async def have_brand_id(self, url):"""获取品牌id brand_id:param url::return:"""async with aiohttp.ClientSession() as session:async with session.get(self.url_1) as resp:result = await resp.text()brand_ids = re.findall('id="(\d+)"', result, re.S)brand_ids = list(brand_ids)# brand_ids = ", ".join(brand_ids) # 注意!!字符串循环的赋值不可行, 必须是单独的数字对象# print(brand_ids)return brand_idsasync def have_brand_name(self, url):"""http://db.auto.sohu.com/cxdata/xml/basic/brand145ModelListWithCorp.xml通过这个网址 ,提取车辆名字, 最后的数据显示会有多个, 每个对应多个车型:param url::return:brand_name"""async with aiohttp.ClientSession() as session:async with session.get(url) as resp:result = await resp.text(encoding="GBK")brand_name = re.findall('brand name="(.*?)"', result, re.S)[0]return brand_nameasync def have_ids(self, url):"""依旧是这个网址, 获取id, 这是真正的独一无二的id,对应的是每个不同的车型, 注意数据对应:param url::return:"""async with aiohttp.ClientSession() as session:async with session.get(url) as resp:result = await resp.text(encoding="gbk")ids = re.findall('id="(\d+)"', result, re.S)return idsasync def have_leardboard_message(self, url):"""通过id 获取数据,:param id::return:"""async with aiohttp.ClientSession() as session:async with session.get(url) as resp:try:result = await resp.text(encoding="GBK")except UnicodeError:result = await resp.text(encoding="utf-8")datas = re.findall('date="(.*?)" salesNum="(\d+)"', result, re.S)item = []name = re.findall('name="(.*?)"', result, re.S)[0]for data in datas:datetime = data[0]sale_nums = data[1]data_list = [name, datetime, sale_nums]item.append(data_list)return item@staticmethoddef save_message_to_mongodb(data):try:if db[MONGO_COLLECTION].insert(data):passexcept Exception as e:print(e.args)else:passasync def main(self):aio_car = AioCar()task1 = aio_car.have_brand_id(self.url_1)return await asyncio.ensure_future(asyncio.gather(task1))if __name__ == '__main__':aio_car = AioCar()mysql = MYSQL()loop = asyncio.get_event_loop()results = loop.run_until_complete(aio_car.main())url_2 = 'http://db.auto.sohu.com/cxdata/xml/basic/brand{}ModelListWithCorp.xml' # 包含车辆总名字以及idurl_3 = 'http://db.auto.sohu.com/cxdata/xml/sales/model/model{}sales.xml'client = pymongo.MongoClient(MONGO_URL)db = client[MONGO_DB]for brand_id in results[0]:url = url_2.format(brand_id)task = aio_car.have_brand_name(url)  # 获取品牌名字函数brand_name = loop.run_until_complete(task)   # 获取车辆匹配总名字, 也就是搜寻的第一个名字ids = loop.run_until_complete(aio_car.have_ids(url))  # 利用事件循环获取idsfor id in ids:url = url_3.format(id)task = aio_car.have_leardboard_message(url)datas = loop.run_until_complete(task)for item in datas:item = [brand_name, item[0], item[1], item[2]]item = " ".join(item)item = {'result' : item}aio_car.save_message_to_mongodb(item) # 保存到MongoDBmysql.insert(item)  # 保存到Mysqlprint('采集结束', datetime.datetime.today())

aiohttp与asyncio库爬取汽车销量排行榜相关推荐

  1. 爬虫(2)-解析库xpath和beautifulsoup爬取猫眼电影排行榜前100部电影

    解析库爬取猫眼电影前100部电影 认为有用的话请点赞,码字不易,谢谢. 其他爬虫实战请查看:https://blog.csdn.net/qq_42754919/category_10354544.ht ...

  2. Python爬虫——aiohttp异步协程爬取同程旅行酒店评论

    大家好!我是霖hero Python并发编程有三种方式:多线程(Threading).多进程(Process).协程(Coroutine),使用并发编程会大大提高程序的效率,今天我们将学习如何选择多线 ...

  3. 送书 | aiohttp异步协程爬取同程旅行酒店评论并作词云图

    大家好!我是啃书君! Python并发编程有三种方式:多线程(Threading).多进程(Process).协程(Coroutine),使用并发编程会大大提高程序的效率,今天我们将学习如何选择多线程 ...

  4. Python 爬虫实战入门——爬取汽车之家网站促销优惠与经销商信息

    在4S店实习,市场部经理让我写一个小程序自动爬取汽车之家网站上自家品牌的促销文章,因为区域经理需要各店上报在网站上每一家经销商文章的露出频率,于是就自己尝试写一个爬虫,正好当入门了. 一.自动爬取并输 ...

  5. python爬虫利用Scrapy框架爬取汽车之家奔驰图片--实战

    先看一下利用scrapy框架爬取汽车之家奔驰A级的效果图 1)进入cmd命令模式下,进入想要存取爬虫代码的文件,我这里是进入e盘下的python_spider文件夹内 C:\Users\15538&g ...

  6. python3 selenium webdriver.Chrome php 爬取汽车之家所有车型详情数据[开源版]

    介绍 本接口是车型库api的补充,用于爬取汽车之家所有车型详情数据 开源地址:https://gitee.com/web/CarApi/tree/master/python 软件架构 python3 ...

  7. python爬虫学习(三):使用re库爬取淘宝商品,并把结果写进txt文件

    第二个例子是使用requests库+re库爬取淘宝搜索商品页面的商品信息 (1)分析网页源码 打开淘宝,输入关键字"python",然后搜索,显示如下搜索结果 从url连接中可以得 ...

  8. urllib库爬取拍信创意图片(post请求)json传参

    urllib库爬取拍信创意图片 解决urllib库遇到Request payload传参问题 分析网页: 找到接口: 发现图片数据都是以json格式存储在这个接口里 我们在来看接口所需要的data,这 ...

  9. Python网络爬虫与信息提取(17)—— 题库爬取与整理+下载答案

    前言 上一节实现了题目的整理,没整理答案是不完整的,所以这一节加上答案的爬取. 上一节地址:Python网络爬虫与信息提取(16)-- 题库爬取与整理 效果 思路 爬答案有点难搞,像这种题库的答案都是 ...

  10. 使用Requests库+re库爬取猫眼电影评分

    使用Requests库+re库爬取猫眼电影评分 作者:小胖 0x1: 分析 在简单的翻页中,我们可以知道.网页涵盖了以下几个规律 1.offset参数的值是除以30就是当前的页面 2.每个页面只有30 ...

最新文章

  1. ES5-Array-push(),pop(),shift(),unshift()
  2. Sring boot学习笔记(三)-自带注解定时任务使用
  3. dosbox 伪指令dd为什么会报错_什么是SQL函数?为什么使用SQL函数可能会带来问题?...
  4. java中的账户冻结原理_java可重入锁(ReentrantLock)的实现原理
  5. Mybatis的xml配置实例
  6. applet mysql_applet数字签名_java applet读取mysql_软件数字签名(5)
  7. 2004级C++试题及答案
  8. sybase linux下创建备份服务器,Sybase数据库备份方案
  9. 易语言皮肤模块200个_王者荣耀:第一个200战令玩家,连天美都赞他的升级方法最科学...
  10. myeclipse项目导入eclipse在Web项目下的WebRoot和WebContent
  11. java 判断今天_java判断日期是否是今天
  12. 使用cython加速代码运行
  13. 在网上请不要惹一个程序员
  14. 记录:起个撒名了, 就叫 《方向》 吧....
  15. stm8L ADC多通通DMA采集和EEPROM一起使用解决死机和数据错位问题——寄存器
  16. JTAG篇(5) OpenOCD 写入数据到TAP
  17. 《卸甲笔记》-分组统计查询对比
  18. Debian搭建dns服务器
  19. R 多元相关与回归分析
  20. ftp中转服务器,Serv-U FTP文件服务器组建攻略

热门文章

  1. 核心频率个加速频率_加速频率作用是什么 加速频率作用介绍【详解】
  2. 苹果已停产的 12 英寸 MacBook 和 iMac Pro或将回归
  3. 关于c++中位运算0xff的一些理解
  4. iOS插件tweak编写
  5. 【刷题宝典NO.3】
  6. 实战进阶项目:《若依》码云知名开源项目·学习拓展笔记
  7. 音频控制,JL音频和音响系统MB QUART选项
  8. Linux运维职业生涯规划
  9. Wireshark抓包常见问题解析
  10. 一个富有哲理的故事,值得一看。