python crawl
python爬虫下载页面代码备用。
# -*- coding:utf-8 -*-
import requests
import re
import randomclass download:def __init__(self):self.user_agent_list = ["Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1","Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6","Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1","Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5","Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3","Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24","Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"]self.iplist = []def get(self, url, timeout, proxy=None, num_retries = 6):UA = random.choice(self.user_agent_list)headers = {'User-Agent': UA,'Accept': "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",'Accept-Encoding': 'gzip, deflate, sdch',}if proxy == None:try:response = requests.get(url, headers = headers)return responseexcept:if num_retries > 0:time.sleep(10)print(u'获取网页出错,10S后将获取倒数第:', num_retries, u'次')return self.get(url, timeout, num_retries-1)else:print(u'开始使用代理')time.sleep(10)IP = ''.join(str(random.choice(self.iplist)).strip())proxy = {'http': IP}return self.get(url, timeout, proxy,)else:try:IP = ''.join(str(random.choice(self.iplist)).strip())proxy = {'http': IP}response = requests.get(url, headers=headers, proxies = proxy)return response except:if num_retries > 0:time.sleep(10)IP = ''.join(str(random.choice(self.iplist)).strip())proxy = {'http': IP}print(u'获取网页出错,10S后将获取倒数第:', num_retries, u'次')print(u'开始使用代理')return self.get(url, timeout, proxy, num_retries-1)else:print(u'代理也不好使了!取消代理')return self.get(url, 3)def analysis(self):html = self.get("http://haoip.cc/tiqu.htm", 3)iplistn = re.findall(r'r/>(.*?)<b', html.text, re.S)for ip in iplistn:i = re.sub('\n', '', ip)self.iplist.append(i.strip())print(i.strip())print (self.iplist)Download = download()
Download.analysis()
python crawl相关推荐
- NLP之路-python爬虫
解决了IDE中文显示的问题,通过print(soup.head.title).encode('gb18030')解决了中文路径无法打开的问题. 通过file=open(u"D:/users/ ...
- python爬取快手粉丝榜_[Python] 【原创开源】快手爬虫,根据id批量爬取用户的所有图集和视频...
分享 写在前面代码功能如题,根据快手用户的id来爬取用户所有公开作品,包括图集和视频. 原理:其实就是利用基于chromium内核的浏览器自带的devtools对所有请求进行排查找出包含作品链接的请求 ...
- python批量爬取图片_【原创开源】快手爬虫,根据id批量爬取用户的所有图集和视频...
更新日志 所有版本更新日志会记录在这里 v0.4.0(2020-03-23) 修复id转eid的一些bug 从该版本开始,爬取视频均为无水印 v0.3.0(2020-03-10) 修复一些因为用户昵称 ...
- 特定热点事件监控与分析项目
EventMonitor Event monitor based on online news corpus built by Baidu search enginee using event key ...
- scrapy 用爬虫规则指定爬行轨迹自动抓取
需求 给定爬虫起始地址,爬行路径,获得目标页的指定内容 约定路径 起点首页 --> (历史)频道 --> 小说info页–> 章节详情起始页 --> 作者中心 --> 大 ...
- 如何去高大上的下载电影天堂的内容
简介 找过电影资源的人肯定都知道电影天堂这个网站,只要复制上面的链接就可以下载对应的电影.但是一个一个链接点,太麻烦了,如何去批量做,这个时候就要用到爬虫了 操作 首先下载爬虫 git clone h ...
- Python Scarpy Crawl Dmoz Settings
2019独角兽企业重金招聘Python工程师标准>>> AWS_ACCESS_KEY_ID Default: None The AWS access key used by code ...
- Python爬虫仅需一行代码,熟练掌握crawl第三方库
simple_crawl 仅需一行代码即可达到爬虫效果 使用方法 私信小编01即可大量获取Python学习资料 pip install simple_crawl 以下源代码为简单介绍,详细功能介绍再源 ...
- Python爬虫-Scrapy框架(四)- 内置爬虫文件 - 4.2 初探Crawl Spider
Python爬虫-Scrapy框架(四)- 内置爬虫文件 - 4.2 初探Crawl Spider 写在前面 初探Crawl Spider 创建Crawl Spider项目 对比Basic与Crawl ...
最新文章
- mysql配置文件检查方法
- JQUERY 常用方法汇总
- HOWTO:如何在代码中获取安装包目标机上的Windows Installer(MSI)版本
- java Mina sftp_java – 使用Apache Mina作为模拟/内存SFTP服务器进行单元测试
- 自己动手编写一个ajax extender
- 贝塞尔修正_贝塞尔修正背后的推理:n-1
- 双频无线网安装设置(5g ) for linux
- python火爆的原因_为什么Python这么火爆?原因是什么?
- leetcode —— 面试题32 - III. 从上到下打印二叉树 III
- Java IO类库之CharArrayWriter
- stringstream的使用
- 被隐藏的或许才是金子
- msm8937 bootloader流程分析
- c# 使用谷歌身份验证GoogleAuthenticator的示例
- 485通讯问题及解决调试方案提炼
- CPU彪高分析及解决
- iOS开发-Please sign in with an app-specific password. You can create one at appleid.apple.com
- 分层网络有哪些最新发表的毕业论文呢?
- xx-job任务管理平台
- android 默认勾选权限_Android系统Framework定制默认值预置修改
热门文章
- echarts labelLine(引导线)呈水平展示
- openstack学习笔记之三:keystone简介与手动安装部署
- 杭州电脑维修网|杭州笔记本维修_维修电话:13115715979
- 紧急!公开招录50名工程师升名校研究生!基层人员均可报名提升!
- [码尚教育]Python全栈自动化VIP课程对标大厂标准(挑战年薪40万)
- 初窥Linux 之 构建你的Linux“任务管理器”
- Windows Phone 7該如何立足智慧型手機戰役?
- c语言中结构体变量的作用,C语言 结构体 类型变量的 定义 和 引用
- OpenAI CTO、吴恩达夫人……AI 领域值得关注的「她」力量,个个都是女强人
- [杭州河坊老街,历史文脉的历史文化遗产