最近学完Python,写了几个爬虫练练手,网上的教程有很多,但是有的已经不能爬了,主要是网站经常改,可是爬虫还是有通用的思路的,即下载数据、解析数据、保存数据。下面一一来讲。

1.下载数据

首先打开要爬的网站,分析URL,每打开一个网页看URL有什么变化,有可能带上上个网页的某个数据,例如xxID之类,那么我们就需要在上一个页面分析HTML,找到对应的数据。如果网页源码找不到,可能是ajax异步加载,去xhr里去找。

有的网站做了反爬的处理,可以添加User-Agent :判断浏览器

self.user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
# 初始化 headers
self.headers = {'User-Agent': self.user_agent}

如果不行,在Chrome上按F12分析请求头、请求体,看需不需要添加别的信息,例如有的网址添加了referer:记住当前网页的来源,那么我们在请求的时候就可以带上。按Ctrl + Shift + C,可以定位元素在HTML上的位置

动态网页
有一些网页是动态网页,我们得到网页的时候,数据还没请求到呢,当然什么都提取不出来,用Python 解决这个问题只有两种途径:直接从JavaScript 代码里采集内容,或者用Python 的第三方库运行JavaScript,直接采集你在浏览器里看到的页面。

1.找请求,看返回的内容,网页的内容可能就在这里。然后可以复制请求,复杂的网址中,有些乱七八糟的可以删除,有意义的部分保留。切记删除一小部分后先尝试能不能打开网页,如果成功再删减,直到不能删减。

2.Selenium:是一个强大的网络数据采集工具(但是速度慢),其最初是为网站自动化测试而开发的。近几年,它还被广泛用于获取精确的网站快照,因为它们可以直接运行在浏览器上。Selenium 库是一个在WebDriver 上调用的API。WebDriver 有点儿像可以加载网站的浏览器,但是它也可以像BeautifulSoup对象一样用来查找页面元素,与页面上的元素进行交互(发送文本、点击等),以及执行其他动作来运行网络爬虫。

3.PhantomJS:是一个“无头”(headless)浏览器。它会把网站加载到内存并执行页面上的JavaScript,但是它不会向用户展示网页的图形界面。把Selenium和PhantomJS 结合在一起,就可以运行一个非常强大的网络爬虫了,可以处理cookie、JavaScript、header,以及任何你需要做的事情。

下载数据的模块有urllib、urllib2及Requests
Requests相比其他俩个的话,支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自 动确定响应内容的编码,支持国际化的 URL 和 POST 数据自动编码,而且api相对来说也简单,但是requests直接使用不能异步调用,速度慢。

html = requests.get(url, headers=headers)   #没错,就是这么简单

urllib2以我爬取淘宝的妹子例子来说明:

user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
headers = {'User-Agent': user_agent}
# 注意:form data请求参数
params = 'q&viewFlag=A&sortType=default&searchStyle=&searchRegion=city%3A&searchFansNum=&currentPage=1&pageSize=100'def getHome():url = 'https://mm.taobao.com/tstar/search/tstar_model.do?_input_charset=utf-8'req = urllib2.Request(url, headers=headers)# decode(’utf - 8’)解码   把其他编码转换成unicode编码# encode(’gbk’) 编码  把unicode编码转换成其他编码# ”gbk”.decode(’gbk’).encode(’utf - 8')# unicode = 中文# gbk = 英文# utf - 8 = 日文# 英文一 > 中文一 > 日文,unicode相当于转化器html = urllib2.urlopen(req, data=params).read().decode('gbk').encode('utf-8')# json转对象peoples = json.loads(html)for i in peoples['data']['searchDOList']:#去下一个页面获取数据getUseInfo(i['userId'], i['realName'])

2.解析数据

解析数据也有很多方式,我只看了beautifulsoup和正则,这个例子是用正则来解析的

def getUseInfo(userId, realName):url = 'https://mm.taobao.com/self/aiShow.htm?userId=' + str(userId)req = urllib2.Request(url)html = urllib2.urlopen(req).read().decode('gbk').encode('utf-8')pattern = re.compile('<img.*?src=(.*?)/>', re.S)items = re.findall(pattern, html)x = 0for item in items:if re.match(r'.*(.jpg")$', item.strip()):tt = 'http:' + re.split('"', item.strip())[1]down_image(tt, x, realName)x = x + 1print('下载完毕')

正则表达式说明

match:匹配string 开头,成功返回Match object, 失败返回None,只匹配一个。
search:在string中进行搜索,成功返回Match object, 失败返回None, 只匹配一个。
findall:在string中查找所有 匹配成功的组, 即用括号括起来的部分。返回list对象,每个list item是由每个匹配的所有组组成的list。

1).? 是一个固定的搭配,.和代表可以匹配任意无限多个字符,加上?表示使用非贪婪模式进行匹配,也就是我们会尽可能短地做匹配

2)(.?)代表一个分组,如果有5个(.?)就说明匹配了五个分组

3) 正则表达式中,“.”的作用是匹配除“\n”以外的任何字符,也就是说,它是在一行中进行匹配。这里的“行”是以“\n”进行区分的。HTML标签每行的末尾有一个“\n”,不过它不可见。

如果不使用re.S参数,则只在每一行内进行匹配,如果一行没有,就换下一行重新开始,不会跨行。而使用re.S参数以后,正则表达式会将这个字符串作为一个整体,将“\n”当做一个普通的字符加入到这个字符串中,在整体中进行匹配。

3.保存数据

数据解析后可以保存到文件或数据库中,这个例子是保存到了文件中,很简单,就不做说明了,在下篇讲如何将数据保存到数据库

def down_image(url, filename, realName):req = urllib2.Request(url=url)folder = 'e:\\images\\%s' % realNameif os.path.isdir(folder):passelse:os.makedirs(folder)f = folder + '\\%s.jpg' % filenameif not os.path.isfile(f):print fbinary_data = urllib2.urlopen(req).read()with open(f, 'wb') as temp_file:temp_file.write(binary_data)

最后,感谢您的阅读。您的每个点赞、留言、分享都是对我们最大的鼓励,笔芯~

如有疑问,欢迎在评论区一起讨论!

利用Python爬虫网上的漂亮妹子图相关推荐

  1. 利用Python爬虫唯一图库网上的漂亮妹子图

    利用Python爬唯一图库网上的漂亮妹子图 写在前面 学习了很多Python知识,敲写了千万行代码,感觉学Python语言太枯燥乏味了.但是呢,本着美女是学习动力的第一原则,啊哈哈.写个程序把妹子们都 ...

  2. Python爬虫 - scrapy - 爬取妹子图 Lv1

    0. 前言 这是一个利用python scrapy框架爬取网站图片的实例,本人也是在学习当中,在这做个记录,也希望能帮到需要的人.爬取妹子图的实例打算分成三部分来写,尝试完善实用性. 系统环境 Sys ...

  3. 手把手教你利用 python 爬虫分析基金、股票

    手把手教你利用 python 爬虫分析基金.股票 文章目录 手把手教你利用 python 爬虫分析基金.股票 第一步:基金数据爬取 第二步:股票增持计算 第三步:好股基金选取 桌面程序 exe 从前大 ...

  4. python爬虫怎么赚钱-个人利用Python爬虫技术怎么挣钱-10万被动收入...

    我利用Python爬虫技术年挣10万被动收入的方式,在正式聊Python爬虫技术之前,先来说说挣钱的事,说说作为一个自由职业或兼职者怎么利用爬虫来挣钱. 个人爬虫挣钱方法大致如下 爬虫技术挣钱方法1: ...

  5. python爬虫赚钱的经历-个人利用Python爬虫技术怎么挣钱-10万被动收入

    我利用Python爬虫技术年挣10万被动收入的方式,在正式聊Python爬虫技术之前,先来说说挣钱的事,说说作为一个自由职业或兼职者怎么利用爬虫来挣钱. 个人爬虫挣钱方法大致如下 爬虫技术挣钱方法1: ...

  6. 02-分享:个人利用 Python 爬虫技术怎么挣钱-1万被动收入

    你好,我是悦创. 今天我来分享一篇,猿人学的文章.原文链接:https://www.yuanrenxue.com/crawler/earn-money-python-crawler.html 我利用 ...

  7. python爬虫怎么赚钱-个人利用Python爬虫技术怎么挣钱-10万被动收入

    我利用Python爬虫技术年挣10万被动收入的方式,在正式聊Python爬虫技术之前,先来说说挣钱的事,说说作为一个自由职业或兼职者怎么利用爬虫来挣钱. 个人爬虫挣钱方法大致如下 爬虫技术挣钱方法1: ...

  8. 利用python爬虫与数据分析,打造最强玩法,轻松成为大神级玩家!

    前言: 最近迷上了一款游戏,但是作为一名程序员的我是不可能只玩游戏的,我必须把它的官网数据采集下来! 环境: windows python3.6.5 模块: requests jsonpath pyg ...

  9. 用python画动态樱花_利用python画一棵漂亮的樱花树,turtle画图代码大全,此处感谢知乎大佬小白...

    利用python画一棵漂亮的樱花树,turtle画图代码大全,此处感谢知乎大佬小白 此处感谢知乎大佬 小白练手 练习一下比较流行的turtle(海龟库) 画一棵漂亮的樱花树,效果如下: ps: 是动态 ...

最新文章

  1. 全球比特币和区块链领域创业企业全景图
  2. ITSM四大管理工具的比较
  3. rm 空间不释放_rm删除文件之后,空间就被释放了吗?
  4. 扑克牌排序_巧用扑克牌搞定孩子的数学思维启蒙,聪明的妈妈都在玩这样的游戏...
  5. 每日一题(25)—— 自加++
  6. mysql连接超时timeout问题
  7. 软件测试系统并发数,“并发用户数”、“系统用户数”和“同时在线用户数”之间的差别...
  8. 【转帖】Eclipse快捷键指南
  9. mysql基线检查_Mysql安全基线检查
  10. ISO50001认证辅导,体系要求组织建立能源管理基准、标杆以及目标指标,对节能效果进行量化
  11. HTTP1.1 基础: 用C语言实现200行内的极简http server
  12. MPEG-2 TS学习(一)MPEG-2 TS格式解析
  13. uni-app小程序 真机显示canvas上利用base64图片生成的海报
  14. C语言中的类型限定符有哪些?
  15. html向下的箭头符号怎么打,向下的箭头怎么打
  16. 强化学习——day31 多臂老虎机MAB的代码实现(Python)
  17. python樱花_python画樱花树代码 具体代码介绍
  18. 2177 找到和为给定整数的三个连续整数(思维题)
  19. win7系统如何备份还原,win7系统映像备份与恢复
  20. 夜班媒体人援助项目在京启动,陈于冰说:“一直以来.....

热门文章

  1. 服了,这上面一个免费的bandzip压缩文件都要设置成收费,又不是只能在这上面查到,需要的自行下载
  2. DIY调频(FM) MP3电台-基于增强管道数据流转(EPDR)的taskBus实时水位控制技术
  3. 数据结构:线性结构和非线性结构的理解
  4. 梦幻西游维护公告里面的可转服务器,梦幻西游:大量服务器即将开放平转,跨服倒卖人人都能做...
  5. 【原创开源应用第1期】花式玩转网络摄像头之TCP上位机软件实现,高端大气上档次,速度2MB/S,华丽丽的界面效果
  6. 小程序获取手机号码解密偶尔会失败
  7. node.js 如何读取json文件内容
  8. 量化交易中VWAP/TWAP算法的基本原理和简单源码实现(C++和python)
  9. python基础-设计滚动字幕(方向,速度可选,回车符实现清除屏幕效果)
  10. 加速取代Intel!苹果自研PC处理器更强大:12核、16核来了