抓取个人支付宝微信爬虫账单
一、我为什么要研究它?
1、全天候 7*24 自动监控收款,自动将即时到帐的交易反馈到网站接口或者数据库
2、轻松实现支付宝即时到账接口的功能,省去了人工一一对账再加款操作的麻烦
3、成功地解决了中、小企业及非企业支付,手续费昂贵等问题
最重要的是挑战自己
二、部分代码思路(有什么建议和意见欢迎交流q:1761067247)
System.setProperty("******", "*******");//交流
WebDriver webDriver = new ChromeDriver();
webDriver.get("https://auth.alipay.com/login/index.htm");
Thread.sleep(60000);
webDriver.manage().window().maximize();
// 拿到数据存数据库链接
String urls = "http://************/";
while (true) {
//此处交流讨论
if (rows.size() > 0) {
int num = rows.size() / 2;
for (int i = 1; i <= num; i++) {
Thread.sleep(500);
WebElement date = webDriver.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr["
+ i + "])/td[@class=' ant-table-column-sort']/span[2]/span/span[1]"));
WebElement time = webDriver.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr["
+ i + "])/td[@class=' ant-table-column-sort']/span[2]/span/span[2]"));
WebElement jiaoyi = webDriver.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr["
+ i
+ "])/td[@class='paddingRight30___19-w2']/div/span/span[@class='displayText___R2YtL']"));
WebElement money = webDriver.findElement(
By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i + "])/td[5]/div/span/span"));
WebElement name = webDriver.findElement(
By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i + "])/td[4]/div/div[2]"));
WebElement userid = webDriver.findElement(
By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i + "])/td[4]/div/div[1]"));
System.out.println("dates=" + date.getText() + "×=" + time.getText() + "&trans="
+ jiaoyi.getAttribute("title") + "&userid=" + userid.getText() + "&money="
+ money.getText() + "&name=" + name.getText() + "");
/*
* commens.sendPost(urls, "dates=" + date.getText() + "×=" + time.getText()
* + "&trans=" + jiaoyi.getAttribute("title") + "&userid=" + userid.getText() +
* "&money=" + money.getText() + "&name=" + name.getText() + "");
*/
}
SimpleDateFormat formatter = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
java.util.Date currentTime = new java.util.Date();
String now = formatter.format(currentTime);
System.out.print(now + "**s**");
}
} catch (Exception e) {
Thread.sleep(2000);
String a = webDriver.getCurrentUrl();
if (a.equals("https://www.alipay.com/")
|| a.equals("https://mbillexprod.alipay.com/enterprise/tradeListQuery.htm")) {
webDriver.navigate().to("https://mbillexprod.alipay.com/enterprise/fundAccountDetail.htm");
Thread.sleep(5000);
while (true) {
try {
Thread.sleep(15000);
webDriver.navigate()
.to("https://mbillexprod.alipay.com/enterprise/fundAccountDetail.htm");
Thread.sleep(15000);
String currentUrl22 = webDriver.getCurrentUrl();
if (currentUrl22
.equals("https://mbillexprod.alipay.com/enterprise/fundAccountDetail.htm")) {
Thread.sleep(15000);
WebElement day301 = webDriver.findElement(
By.xpath("(//div[@class='quickTimeSelectWrapper___1nv7h']/div[4])"));
day301.click();
Thread.sleep(15000);
WebElement shouru = webDriver
.findElement(By.xpath("(//div[@class='ant-tabs-nav-scroll']/div/div[3])"));
shouru.click();
Thread.sleep(15000);
WebElement table2 = webDriver
.findElement(By.xpath("(//div[@class='ant-table-body']/table)"));
List<WebElement> rows2 = table2.findElements(By.xpath("(//tbody/tr)"));
if (rows2.size() > 0) {
int num2 = rows2.size() / 2;
for (int i = 1; i <= num2; i++) {
WebElement date = webDriver
.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i
+ "])/td[@class=' ant-table-column-sort']/span[2]/span/span[1]"));
WebElement time = webDriver
.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i
+ "])/td[@class=' ant-table-column-sort']/span[2]/span/span[2]"));
WebElement jiaoyi = webDriver
.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i
+ "])/td[2]/div/div/span/span[@class='displayText___R2YtL']"));
WebElement userid = webDriver
.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i
+ "])/td[4]/div/div[1]"));
WebElement name = webDriver
.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i
+ "])/td[4]/div/div[2]"));
WebElement money = webDriver
.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i
+ "])/td[6]/div/span"));
System.out.println("dates=" + date.getText() + "×=" + time.getText()
+ "&trans=" + jiaoyi.getAttribute("title") + "&userid="
+ userid.getText() + "&money=" + money.getText() + "&name="
+ name.getText() + "");
/*
* commens.sendPost(urls, "dates=" + date.getText() + "×=" +
* time.getText() + "&trans=" + jiaoyi.getAttribute("title") + "&userid=" +
* userid.getText() + "&money=" + money.getText() + "&name=" +
* name.getText() + "");
*/
}
SimpleDateFormat formatter = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
java.util.Date currentTime = new java.util.Date();
String now = formatter.format(currentTime);
System.out.print(now + "**d***");
}
}
} catch (Exception e1) {
webDriver.close();
webDriver.quit();
}
}
}
}
} else {
webDriver.navigate().to("https://mbillexprod.alipay.com/enterprise/fundAccountDetail.htm");
Thread.sleep(5000);
while (true) {
try {
Thread.sleep(15000);
webDriver.navigate().to("https://mbillexprod.alipay.com/enterprise/fundAccountDetail.htm");
Thread.sleep(15000);
String currentUrl22 = webDriver.getCurrentUrl();
if (currentUrl22.equals("https://mbillexprod.alipay.com/enterprise/fundAccountDetail.htm")) {
Thread.sleep(15000);
WebElement day301 = webDriver
.findElement(By.xpath("(//div[@class='quickTimeSelectWrapper___1nv7h']/div[4])"));
day301.click();
Thread.sleep(15000);
WebElement shouru = webDriver
.findElement(By.xpath("(//div[@class='ant-tabs-nav-scroll']/div/div[3])"));
shouru.click();
Thread.sleep(15000);
WebElement table2 = webDriver
.findElement(By.xpath("(//div[@class='ant-table-body']/table)"));
List<WebElement> rows2 = table2.findElements(By.xpath("(//tbody/tr)"));
if (rows2.size() > 0) {
int num2 = rows2.size() / 2;
for (int i = 1; i <= num2; i++) {
WebElement date = webDriver
.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i
+ "])/td[@class=' ant-table-column-sort']/span[2]/span/span[1]"));
WebElement time = webDriver
.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i
+ "])/td[@class=' ant-table-column-sort']/span[2]/span/span[2]"));
WebElement jiaoyi = webDriver
.findElement(By.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i
+ "])/td[2]/div/div/span/span[@class='displayText___R2YtL']"));
WebElement userid = webDriver.findElement(By.xpath(
"(//tbody[@class='ant-table-tbody']/tr[" + i + "])/td[4]/div/div[1]"));
WebElement name = webDriver.findElement(By.xpath(
"(//tbody[@class='ant-table-tbody']/tr[" + i + "])/td[4]/div/div[2]"));
WebElement money = webDriver.findElement(By
.xpath("(//tbody[@class='ant-table-tbody']/tr[" + i + "])/td[6]/div/span"));
System.out.println("dates=" + date.getText() + "×=" + time.getText()
+ "&trans=" + jiaoyi.getAttribute("title") + "&userid=" + userid.getText()
+ "&money=" + money.getText() + "&name=" + name.getText() + "");
/*
* commens.sendPost(urls, "dates=" + date.getText() + "×=" + time.getText()
* + "&trans=" + jiaoyi.getAttribute("title") + "&userid=" + userid.getText() +
* "&money=" + money.getText() + "&name=" + name.getText() + "");
*/
}
SimpleDateFormat formatter = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
java.util.Date currentTime = new java.util.Date();
String now = formatter.format(currentTime);
System.out.print(now + "**d***");
}
}
} catch (Exception e) {
webDriver.close();
webDriver.quit();
}
}
}
}
}
三、效果图,本人感觉效果不错(有什么建议和意见欢迎来提交流q:1761067247)
微信同理哦(有什么建议和意见欢迎来交流q:1761067247)
抓取个人支付宝微信爬虫账单相关推荐
- python3 爬虫实战 :用 Appium 抓取手机 app 微信朋友圈的数据
From:https://blog.csdn.net/Fan_shui/article/details/81413595 本编教程从 appium 的环境配置开始,到抓取手机 app 微信朋友圈结束. ...
- 使用代理抓取反爬微信文章
2019独角兽企业重金招聘Python工程师标准>>> 声明:此篇文章主要是观看静觅教学视频后做的笔记,原教程地址:https://cuiqingcai.com/ 在抓取网页时,某些 ...
- python爬取大众点评评论_python爬虫抓取数据 小试Python——爬虫抓取大众点评上的数据 - 电脑常识 - 服务器之家...
python爬虫抓取数据 小试Python--爬虫抓取大众点评上的数据 发布时间:2017-04-07
- python可抓取数据包括什么_Python对JS型数据抓取有什么特别好的方法吗,pythonjs型抓取,想写一个爬虫,但是需要抓...
Python对JS型数据抓取有什么特别好的方法吗,pythonjs型抓取,想写一个爬虫,但是需要抓 想写一个爬虫,但是需要抓去的的数据是js生成的,在源代码里看不到,要怎么才能抓到呢? 最好是用pyt ...
- 新闻爬虫步骤python_抓取新闻网站:异步爬虫实现的流程和细节
利用python写爬虫的人越来越多,这也表明了用python写爬虫相比其它语言用起来更方便一些.很多新闻网站都没有反爬虫的策略,所以爬取新闻网站的数据就更加方便.但是,新闻网站多如牛毛,我们该如何去爬 ...
- div区域内容抓取_企业微信群机器人应用:使用python从网站抓取行业资讯并定时推送...
在企业经营过程中,及时了解行业相关信息(市场动态.竞品策略.行业数据等等)是非常必要的.通常情况下,商品部门.营销部门.市场部门可能都会安排专门的人员定期进行这些信息的搜集.整理,再进行内部的分享. ...
- python爬取淘宝商品做数据挖掘_Python 3爬虫 数据清洗与可视化实战 Python数据抓取技术 python3网络爬虫教程书籍 运用Python工具获取电商平台页面数据挖掘书籍...
A8 书 名:Python 3爬虫 数据清洗与可视化实战 作 译 者:零一,韩要宾,黄园园 出版时间:2018-03 千 字 数:200 版 次:01-01 页 数:212 开 ...
- 华为抓取错误日志在哪里_抓取网址进行分析爬虫工具Screaming Frog SEO Spider for Mac...
Screaming Frog SEO Spider for Mac是一款专门用于抓取网址进行分析的网络爬虫开发工具,你可以通过这款软件来快速抓取网站中可能出现的损坏链接和服务器错误,或是识别网站中临时 ...
- python抓取数据库数据_Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储...
Python爬虫可以说是好玩又好用了.现想利用Python爬取网页股票数据保存到本地csv数据文件中,同时想把股票数据保存到MySQL数据库中.需求有了,剩下的就是实现了. 在开始之前,保证已经安装好 ...
最新文章
- centos7 systemctl 管理 mysql
- 《像计算机科学家一样思考C++》导读
- 【深度学习】模型训练教程之Focal Loss调参和Dice实现
- java 正则 多个空格_java正则表达式 多个空格替换多个成-
- 【iCore3 双核心板】例程二十二:LAN_UDP实验——以太网数据传输
- 用户'sa'登录失败(错误18456)解决方案图解
- HDFS文件系统的JAVA-API操作(一)
- 【十四】无验证码登录配置:通过登录接口获取 token 配置全局变量
- mybatisplus 增删改查(普通)
- 深圳vpay钱包系统技术开发分享
- 100m光纤测速多少正常_100M的光纤电信宽带,用手机测速时,为什么只有40M?
- 如何选择家庭私有云NAS方案?家庭NAS存储服务器的重要性
- api接口如何对接?
- 计算机基础多媒体硬件,计算机基础:多媒体基础知识笔记
- css textarea行数_超级简单:在一个TextArea中如何限制行数和字符数
- OpenHarmony音频驱动介绍
- PTA 1100 校庆(Python3)
- 职场达人必备!100本管理类的书籍
- 常见的地理坐标系与投影坐标系
- 计算机网络在铁路信号中的应用,网络科技在铁道信号的运用