网络爬虫,从上期所中爬取铜主力期货合约数据
import requests
import json
import csv
start_time = 20221230#设置开始爬取的时间为2022.12.30
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36 Edg/107.0.1418.56'}
#设置读取请求头的函数
def send_request(url):
resp = requests.get(url, headers)
return resp.text
#对json文件进行翻译,翻译以后获取相应数据
def parser(data):
total_data = []
json_data = json.loads(data)
data = json_data['o_curinstrument']
delivermonth = data[0]['DELIVERYMONTH']
font_price = data[0]['PRESETTLEMENTPRICE']
today_price = data[0]['OPENPRICE']
max_price = data[0]['HIGHESTPRICE']
min_price = data[0]['LOWESTPRICE']
close_price = data[0]['CLOSEPRICE']
settlement_price = data[0]['SETTLEMENTPRICE']
zha_die1 = data[0]['ZD1_CHG']
zha_die2 = data[0]['ZD2_CHG']
colume = data[0]['VOLUME']
tornover = data[0]['TURNOVER']
openst = data[0]['OPENINTEREST']
change_price = data[0]['OPENINTERESTCHG']
total_data.append([start_time,delivermonth,font_price,today_price,max_price,min_price,close_price,settlement_price,zha_die1,zha_die2,colume,tornover,openst,change_price])
return total_data
#保存获取到的数据
def save(result):
with open('newdata.csv','a+' ,newline='')as f:
writer = csv.writer(f)
writer.writerows(result)
#开始爬取时间范围,与网站地址
#在网站中找到https://www.shfe.com.cn/data/dailydata/kx/kx{0}.dat 点进去这个就是json文件
def start():
global start_time
while start_time >= 20211101:
print("{0}年开始爬取".format(start_time))
url = 'https://www.shfe.com.cn/data/dailydata/kx/kx{0}.dat'.format(start_time)
data = send_request(url)
# print(data)
try:
result = parser(data)
except json.decoder.JSONDecodeError:
start_time -= 1
continue
save(result)
start_time -= 1
if __name__ == '__main__':
# with open('newdata.csv','a+',newline='') as f:
# writer = csv.writer(f)
# writer.writerow(['日期','交割月份','前结算','今开盘','最高价','最低价','收盘价','结算参考价','涨跌1','涨跌2','成交手','成交额','持仓手','变化'])
start()
#还有一个简单版本需要注释 ,可以 si xin 我
网络爬虫,从上期所中爬取铜主力期货合约数据相关推荐
- 网络爬虫---用urllib模块爬取京东笔记本电脑的数据、并对其做一个可视化
用urllib模块爬取京东笔记本电脑的数据.并对其做一个可视化 文章目录 用urllib模块爬取京东笔记本电脑的数据.并对其做一个可视化 一.前言 二.知识要求 三.过程分析 1.观察主页面和每个电脑 ...
- Python网络爬虫——Appuim+夜神模拟器爬取得到APP课程数据
一.背景介绍 随着生产力和经济社会的发展,温饱问题基本解决,人们开始追求更高层次的精神文明,开始愿意为知识和内容付费.从2016年开始,内容付费渐渐成为时尚. 罗辑思维创始人罗振宇全力打造" ...
- java爬虫黑马百度云,Java爬虫小Demo java爬取百度风云榜数据
Java爬虫小Demo java爬取百度风云榜数据 很简单的一个小例子,使用到了java的爬虫框架 jsoup ,一起啦看看实现的方法吧! 相关推荐:Python爬虫实战 python爬虫爬取百度风云 ...
- 【期末课设】python爬虫基础与可视化,使用python语言以及支持python语言的第三方技术实现爬虫功能,定向爬取网页的图片数据,并且实现批量自动命名分类下载。
1.大作业的内容 本要求使用python语言以及支持python语言的第三方技术实现爬虫功能,定向爬取网页的图片数据,并且实现批量自动命名分类下载. 2.案例需求 要求采用虚拟浏览器等动态爬虫技术,完 ...
- 爬虫批量保存网页html,2分钟带你学会网络爬虫:Excel批量爬取网页数据(详细图文版)...
面对网页大量的数据,有时候还要翻页,你还在一页一页地复制粘贴吗?别人需要几小时完成的任务,学会这个小技巧你只需要几分钟就能解决.快来学习使用Excel快速批量地爬取网页数据吧! 1.分析网页数据结构 ...
- 【Python爬虫】用Python爬取娱乐圈排行榜数据
想关注你的爱豆最近在娱乐圈发展的怎么样吗?本文和你一起爬取娱乐圈的排行榜数据,来看看你的爱豆现在排名变化情况,有几次登顶,几次进了前十名呀. PS:在下一篇文章中分析排行榜的动态变化趋势,并绘制成 ...
- Python网络爬虫requests、bs4爬取空姐图片,福利哦
Scrapy框架很好,也提供了很多扩展点,可以自己编写中间件处理Scrapy的Request和Response.但是可定制化或者可掌控性来说,还是自己写的爬虫更加强一些. 接下来,我们来看一下使用Py ...
- python网络爬虫实战——利用逆向工程爬取动态网页
前言 之前写过介绍过网络爬虫的文章,都是一些基础知识,所以在接下来我们完成一个小任务--利用逆向工程爬取一个动态网页,360壁纸网站(https://image.so.com/z?ch=wallpap ...
- Python网络爬虫:利用正则表达式爬取豆瓣电影top250排行前10页电影信息
在学习了几个常用的爬取包方法后,转入爬取实战. 爬取豆瓣电影早已是练习爬取的常用方式了,网上各种代码也已经很多了,我可能现在还在做这个都太土了,不过没事,毕竟我也才刚入门-- 这次我还是利用正则表达式 ...
最新文章
- SQL Server 表分区实战系列(文章索引)
- c# enum 解析
- 自动化运维平台OMserver部署过程中解决的问题1
- MyBatis源码-解读Executor的三个实现类之SimpleExecutor(简单执行器)
- 理解AppDomain
- Angular4 存储访问路由栈信息
- 6 获取当前模块_python常用模块的常用方法介绍
- 《统计学习方法》代码全解析——第十一部分条件随机场
- android 动态壁纸开发
- 欢迎界面java_Linux命令行欢迎界面美化
- 《推荐系统实践》项亮 书中程序实现
- 软考系统集成项目管理工程师重要知识点
- Hybrid APP介绍
- 二手房房价影响因素分析
- Linux (deepin)网络管理详解.
- ClickHouse数据库和数据表
- 数据集成技术概述-常见的CDC方案比对
- Nose | 超轻的单元测试框架-精通
- android wifi 共享网络,安卓手机怎么共享XP的网络 无线wifi共享教程【详解】
- 客户端渲染(CSR)和服务端渲染(SSR)差别