python爬虫下载页面代码备用。

# -*- coding:utf-8 -*-
import requests
import re
import randomclass download:def __init__(self):self.user_agent_list = ["Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1","Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6","Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1","Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5","Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3","Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3","Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24","Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"]self.iplist = []def get(self, url, timeout, proxy=None, num_retries = 6):UA = random.choice(self.user_agent_list)headers = {'User-Agent': UA,'Accept': "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",'Accept-Encoding': 'gzip, deflate, sdch',}if proxy == None:try:response = requests.get(url, headers = headers)return responseexcept:if num_retries > 0:time.sleep(10)print(u'获取网页出错,10S后将获取倒数第:', num_retries, u'次')return self.get(url, timeout, num_retries-1)else:print(u'开始使用代理')time.sleep(10)IP = ''.join(str(random.choice(self.iplist)).strip())proxy = {'http': IP}return self.get(url, timeout, proxy,)else:try:IP = ''.join(str(random.choice(self.iplist)).strip())proxy = {'http': IP}response = requests.get(url, headers=headers, proxies = proxy)return response except:if num_retries > 0:time.sleep(10)IP = ''.join(str(random.choice(self.iplist)).strip())proxy = {'http': IP}print(u'获取网页出错,10S后将获取倒数第:', num_retries, u'次')print(u'开始使用代理')return self.get(url, timeout, proxy, num_retries-1)else:print(u'代理也不好使了!取消代理')return self.get(url, 3)def analysis(self):html = self.get("http://haoip.cc/tiqu.htm", 3)iplistn = re.findall(r'r/>(.*?)<b', html.text, re.S)for ip in iplistn:i = re.sub('\n', '', ip)self.iplist.append(i.strip())print(i.strip())print (self.iplist)Download = download()
Download.analysis()

python crawl相关推荐

  1. NLP之路-python爬虫

    解决了IDE中文显示的问题,通过print(soup.head.title).encode('gb18030')解决了中文路径无法打开的问题. 通过file=open(u"D:/users/ ...

  2. python爬取快手粉丝榜_[Python] 【原创开源】快手爬虫,根据id批量爬取用户的所有图集和视频...

    分享 写在前面代码功能如题,根据快手用户的id来爬取用户所有公开作品,包括图集和视频. 原理:其实就是利用基于chromium内核的浏览器自带的devtools对所有请求进行排查找出包含作品链接的请求 ...

  3. python批量爬取图片_【原创开源】快手爬虫,根据id批量爬取用户的所有图集和视频...

    更新日志 所有版本更新日志会记录在这里 v0.4.0(2020-03-23) 修复id转eid的一些bug 从该版本开始,爬取视频均为无水印 v0.3.0(2020-03-10) 修复一些因为用户昵称 ...

  4. 特定热点事件监控与分析项目

    EventMonitor Event monitor based on online news corpus built by Baidu search enginee using event key ...

  5. scrapy 用爬虫规则指定爬行轨迹自动抓取

    需求 给定爬虫起始地址,爬行路径,获得目标页的指定内容 约定路径 起点首页 --> (历史)频道 --> 小说info页–> 章节详情起始页 --> 作者中心 --> 大 ...

  6. 如何去高大上的下载电影天堂的内容

    简介 找过电影资源的人肯定都知道电影天堂这个网站,只要复制上面的链接就可以下载对应的电影.但是一个一个链接点,太麻烦了,如何去批量做,这个时候就要用到爬虫了 操作 首先下载爬虫 git clone h ...

  7. Python Scarpy Crawl Dmoz Settings

    2019独角兽企业重金招聘Python工程师标准>>> AWS_ACCESS_KEY_ID Default: None The AWS access key used by code ...

  8. Python爬虫仅需一行代码,熟练掌握crawl第三方库

    simple_crawl 仅需一行代码即可达到爬虫效果 使用方法 私信小编01即可大量获取Python学习资料 pip install simple_crawl 以下源代码为简单介绍,详细功能介绍再源 ...

  9. Python爬虫-Scrapy框架(四)- 内置爬虫文件 - 4.2 初探Crawl Spider

    Python爬虫-Scrapy框架(四)- 内置爬虫文件 - 4.2 初探Crawl Spider 写在前面 初探Crawl Spider 创建Crawl Spider项目 对比Basic与Crawl ...

最新文章

  1. mysql配置文件检查方法
  2. JQUERY 常用方法汇总
  3. HOWTO:如何在代码中获取安装包目标机上的Windows Installer(MSI)版本
  4. java Mina sftp_java – 使用Apache Mina作为模拟/内存SFTP服务器进行单元测试
  5. 自己动手编写一个ajax extender
  6. 贝塞尔修正_贝塞尔修正背后的推理:n-1
  7. 双频无线网安装设置(5g ) for linux
  8. python火爆的原因_为什么Python这么火爆?原因是什么?
  9. leetcode —— 面试题32 - III. 从上到下打印二叉树 III
  10. Java IO类库之CharArrayWriter
  11. stringstream的使用
  12. 被隐藏的或许才是金子
  13. msm8937 bootloader流程分析
  14. c# 使用谷歌身份验证GoogleAuthenticator的示例
  15. 485通讯问题及解决调试方案提炼
  16. CPU彪高分析及解决
  17. iOS开发-Please sign in with an app-specific password. You can create one at appleid.apple.com
  18. 分层网络有哪些最新发表的毕业论文呢?
  19. xx-job任务管理平台
  20. android 默认勾选权限_Android系统Framework定制默认值预置修改

热门文章

  1. echarts labelLine(引导线)呈水平展示
  2. openstack学习笔记之三:keystone简介与手动安装部署
  3. 杭州电脑维修网|杭州笔记本维修_维修电话:13115715979
  4. 紧急!公开招录50名工程师升名校研究生!基层人员均可报名提升!
  5. [码尚教育]Python全栈自动化VIP课程对标大厂标准(挑战年薪40万)
  6. 初窥Linux 之 构建你的Linux“任务管理器”
  7. Windows Phone 7該如何立足智慧型手機戰役?
  8. c语言中结构体变量的作用,C语言 结构体 类型变量的 定义 和 引用
  9. OpenAI CTO、吴恩达夫人……AI 领域值得关注的「她」力量,个个都是女强人
  10. [杭州河坊老街,历史文脉的历史文化遗产