并存放在CC.TXT文件里

完整版:

import requests
import time
from bs4 import BeautifulSoupd1 = time.strftime("%Y-%m-%d", time.localtime())
url = ('http://datainterface.eastmoney.com/EM_DataCenter/JS.aspx?type=GSRL&sty=GSRL&stat=8&fd=666&p=1&ps=200000&js=({pages:(pc),data:[(x)]})&cb=callback&callback=callback&_=')
url_new = url.replace('666',d1)
res = requests.get(url_new)
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text,'html.parser')
soup1 = (soup.text.lstrip('callback({pages:1,data:[').rstrip(']})'))s1 = soup1.replace('"','')
s2 = s1.replace('},{','\n')
print(s2)# 输出到文本
doc = open('E:\批处理\分红转增\cc.txt','w')
print(s2,file=doc)
doc.close()

之前写的版本:

import requests
import time
from bs4 import BeautifulSoup
d1 = time.strftime("%Y-%m-%d", time.localtime()) #配置带-符号的日期格式,这个在下面的网址中要用到
url = ('http://datainterface.eastmoney.com/EM_DataCenter/JS.aspx?type=GSRL&sty=GSRL&stat=8&fd=666&p=1&ps=200000&js=({pages:(pc),data:[(x)]})&cb=callback&callback=callback&_=')
url_new = url.replace('666',d1) #用时间替代我放在网址中的符号666,来实现每天更新日期

res = requests.get(url_new) #用requests来读取网址,并存放在resres.encoding = 'utf-8' #定义网站的编码soup = BeautifulSoup(res.text,'html.parser') #用beautifulsoup来封装res数据,用html.parser防止代码溢出soup1 = (soup.text.lstrip('callback({pages:1,data:[').rstrip(']})')) #用strip去除左右多余数据s1 = soup1.replace('"','') #消除“s2 = s1.replace('},{','\n') #将‘},{’替换成回车,让一行数据分成多行
print(s2)# 输出到文本doc = open('cc.txt','w')print(s2,file=doc)doc.close()

每天读取当天东方财富的分红派息数据相关推荐

  1. Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储(转)

    Python爬虫可以说是好玩又好用了.现想利用Python爬取网页股票数据保存到本地csv数据文件中,同时想把股票数据保存到MySQL数据库中.需求有了,剩下的就是实现了. 在开始之前,保证已经安装好 ...

  2. python抓取数据库数据_Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储...

    Python爬虫可以说是好玩又好用了.现想利用Python爬取网页股票数据保存到本地csv数据文件中,同时想把股票数据保存到MySQL数据库中.需求有了,剩下的就是实现了. 在开始之前,保证已经安装好 ...

  3. python爬虫实现股票数据存储_Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储!...

    Python爬虫可以说是好玩又好用了.现想利用Python爬取网页股票数据保存到本地csv数据文件中,同时想把股票数据保存到MySQL数据库中.需求有了,剩下的就是实现了. 在开始之前,保证已经安装好 ...

  4. python爬虫爬取股票软件数据_Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储(转载)...

    完整代码 实际上,整个事情完成了两个相对独立的过程:1.爬虫获取网页股票数据并保存到本地文件:2.将本地文件数据储存到MySQL数据库.并没有直接的考虑把从网页上抓取到的数据实时(或者通过一个临时文件 ...

  5. MySQL 怎么插入10天前的日期_Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储!...

    Python爬虫可以说是好玩又好用了.现想利用Python爬取网页股票数据保存到本地csv数据文件中,同时想把股票数据保存到MySQL数据库中.需求有了,剩下的就是实现了. 在开始之前,保证已经安装好 ...

  6. [JS]东方财富网财经数据汇总代码示例

    把握全球金融状况 一个页面看全球金融,感觉不错 再加上以前做的,读取显示 新浪7*24财经直播数据页面 那看得就更舒服了 下面是 新浪7*24财经直播数据 代码地址: http://www.cnblo ...

  7. pandas使用read_csv函数读取文件并解析日期数据列(parse dates)、pandas使用read_csv函数读取文件并将缺失值转化为空字符串

    pandas使用read_csv函数读取文件并解析日期数据列(parse dates).pandas使用read_csv函数读取文件并将缺失值转化为空字符串 目录

  8. pandas使用read_csv函数读取文件最后N行数据并保留表头、pandas使用read_csv函数读取网络url链接数据

    pandas使用read_csv函数读取文件最后N行数据并保留表头.pandas使用read_csv函数读取网络url链接数据 目录

  9. pandas读取字典(dict)数据

    pandas读取字典(dict)数据 pandas.DataFrame.from_dict # 默认orient ='columns' # 默认orient ='columns' data = {'c ...

最新文章

  1. 【ACM】杭电OJ 2010
  2. ECshop--搜索模块细究
  3. TCP面向连接的socket通信
  4. iis7设置html支持asp,Win7下启用IIS7配置ASP运行环境的详细方法
  5. php 类文件加载 Autoloader
  6. python 分类变量转为哑变量_python 虚拟变量
  7. 什么是单镜头反光相机
  8. getCacheDir()和getFilesDir()方法区别
  9. MVC5+EF6之EF CRUD
  10. 网络收包流程-报文从网卡驱动到网络层(或者网桥)的流程(非NAPI、NAPI)(一)
  11. 车轮轨迹原理_倒车轮子原理是什么 倒车原理动画演示很有用
  12. GPS模拟器算法(C#)
  13. python面向对象实现算术编码
  14. 记kali下使用metasploit木马进行远程控制
  15. win10磁盘管理_win10合并磁盘分区教程
  16. Drain基于固定深度解析树
  17. 代理IP的直接转发与隧道转发
  18. Could Not Autowired ,No Beans of ....
  19. 大文件上传控件webupload插件
  20. 荒诞 (absurdity)

热门文章

  1. 使用github上的开源框架SlidingMenu环境的搭建,以及getSupportActionBar方法不能找到的问题...
  2. 城市治理的“精英”逻辑批判
  3. 初试一结束,考研人怎么变成这个鬼样子?!
  4. 金属有机骨架NH2-MIL-125(Ti)CAS:1309760-94-8-瑞禧
  5. 南大通用GBase8s 常用SQL语句(257)
  6. LINUX查看文件内容命令cat vi/vim more tail head的区别
  7. 浅析微前端架构下的Web性能分析
  8. 绿巨人在行动,2015互联网+黑龙江峰会胜利召开(图文)
  9. C++ LPCTSTR
  10. android 最新开源框架,Android酷炫实用的开源框架(UI框架)