多线程爬虫

有些时候,比如下载图片,因为下载图片是一个耗时的操作。如果采用之前那种同步的方式下载。那效率肯会特别慢。这时候我们就可以考虑使用多线程的方式来下载图片。

多线程介绍:

多线程是为了同步完成多项任务,通过提高资源使用效率来提高系统的效率。线程是在同一时间需要完成多项任务的时候实现的。
最简单的比喻多线程就像火车的每一节车厢,而进程则是火车。车厢离开火车是无法跑动的,同理火车也可以有多节车厢。多线程的出现就是为了提高效率。同时它的出现也带来了一些问题。更多介绍请参考:https://baike.baidu.com/item/多线程/1190404?fr=aladdin

threading模块介绍:
threading模块是python中专门提供用来做多线程编程的模块。threading模块中最常用的类是Thread。以下看一个简单的多线程程序:

import threading
import timedef coding():for x in range(3):print('%s正在写代码' % x)time.sleep(1)def drawing():for x in range(3):print('%s正在画图' % x)time.sleep(1)def single_thread():coding()drawing()def multi_thread():t1 = threading.Thread(target=coding)t2 = threading.Thread(target=drawing)t1.start()t2.start()

if name == ‘main’:
multi_thread()

查看线程数:

使用threading.enumerate()函数便可以看到当前线程的数量。

查看当前线程的名字:

使用threading.current_thread()可以看到当前线程的信息。

继承自threading.Thread类:

为了让线程代码更好的封装。可以使用threading模块下的Thread类,继承自这个类,然后实现run方法,线程就会自动运行run方法中的代码。示例代码如下:

import threading
import timeclass CodingThread(threading.Thread):def run(self):for x in range(3):print('%s正在写代码' % threading.current_thread())time.sleep(1)class DrawingThread(threading.Thread):def run(self):for x in range(3):print('%s正在画图' % threading.current_thread())time.sleep(1)def multi_thread():t1 = CodingThread()t2 = DrawingThread()t1.start()t2.start()if __name__ == '__main__':multi_thread()

多线程共享全局变量的问题:

多线程都是在同一个进程中运行的。因此在进程中的全局变量所有线程都是可共享的。这就造成了一个问题,因为线程执行的顺序是无序的。有可能会造成数据错误。比如以下代码:

import threadingtickets = 0def get_ticket():global ticketsfor x in range(1000000):tickets += 1print('tickets:%d'%tickets)def main():for x in range(2):t = threading.Thread(target=get_ticket)t.start()if __name__ == '__main__':main()

以上结果正常来讲应该是6,但是因为多线程运行的不确定性。因此最后的结果可能是随机的。

锁机制:

为了解决以上使用共享全局变量的问题。threading提供了一个Lock类,这个类可以在某个线程访问某个变量的时候加锁,其他线程此时就不能进来,直到当前线程处理完后,把锁释放了,其他线程才能进来处理。示例代码如下:

import threadingVALUE = 0gLock = threading.Lock()def add_value():global VALUEgLock.acquire()for x in range(1000000):VALUE += 1gLock.release()print('value:%d'%VALUE)def main():for x in range(2):t = threading.Thread(target=add_value)t.start()if __name__ == '__main__':main()

Lock版本生产者和消费者模式:

生产者和消费者模式是多线程开发中经常见到的一种模式。生产者的线程专门用来生产一些数据,然后存放到一个中间的变量中。消费者再从这个中间的变量中取出数据进行消费。但是因为要使用中间变量,中间变量经常是一些全局变量,因此需要使用锁来保证数据完整性。以下是使用threading.Lock锁实现的“生产者与消费者模式”的一个例子:

import threading
import random
import timegMoney = 1000
gLock = threading.Lock()
# 记录生产者生产的次数,达到10次就不再生产
gTimes = 0class Producer(threading.Thread):def run(self):global gMoneyglobal gLockglobal gTimeswhile True:money = random.randint(100, 1000)gLock.acquire()# 如果已经达到10次了,就不再生产了if gTimes >= 10:gLock.release()breakgMoney += moneyprint('%s当前存入%s元钱,剩余%s元钱' % (threading.current_thread(), money, gMoney))gTimes += 1time.sleep(0.5)gLock.release()class Consumer(threading.Thread):def run(self):global gMoneyglobal gLockglobal gTimeswhile True:money = random.randint(100, 500)gLock.acquire()if gMoney > money:gMoney -= moneyprint('%s当前取出%s元钱,剩余%s元钱' % (threading.current_thread(), money, gMoney))time.sleep(0.5)else:# 如果钱不够了,有可能是已经超过了次数,这时候就判断一下if gTimes >= 10:gLock.release()breakprint("%s当前想取%s元钱,剩余%s元钱,不足!" % (threading.current_thread(),money,gMoney))gLock.release()def main():for x in range(5):Consumer(name='消费者线程%d'%x).start()for x in range(5):Producer(name='生产者线程%d'%x).start()if __name__ == '__main__':main()

Condition版的生产者与消费者模式:

Lock版本的生产者与消费者模式可以正常的运行。但是存在一个不足,在消费者中,总是通过while True死循环并且上锁的方式去判断钱够不够。上锁是一个很耗费CPU资源的行为。因此这种方式不是最好的。还有一种更好的方式便是使用threading.Condition来实现。threading.Condition可以在没有数据的时候处于阻塞等待状态。一旦有合适的数据了,还可以使用notify相关的函数来通知其他处于等待状态的线程。这样就可以不用做一些无用的上锁和解锁的操作。可以提高程序的性能。首先对threading.Condition相关的函数做个介绍,threading.Condition类似threading.Lock,可以在修改全局数据的时候进行上锁,也可以在修改完毕后进行解锁。以下将一些常用的函数做个简单的介绍:

acquire:上锁。
release:解锁。
wait:将当前线程处于等待状态,并且会释放锁。可以被其他线程使用notify和notify_all函数唤醒。被唤醒后会继续等待上锁,上锁后继续执行下面的代码。
notify:通知某个正在等待的线程,默认是第1个等待的线程。
notify_all:通知所有正在等待的线程。notify和notify_all不会释放锁。并且需要在release之前调用。
Condition版的生产者与消费者模式代码如下:

import threading
import random
import timegMoney = 1000
gCondition = threading.Condition()
gTimes = 0
gTotalTimes = 5class Producer(threading.Thread):def run(self):global gMoneyglobal gConditionglobal gTimeswhile True:money = random.randint(100, 1000)gCondition.acquire()if gTimes >= gTotalTimes:gCondition.release()print('当前生产者总共生产了%s次'%gTimes)breakgMoney += moneyprint('%s当前存入%s元钱,剩余%s元钱' % (threading.current_thread(), money, gMoney))gTimes += 1time.sleep(0.5)gCondition.notify_all()gCondition.release()class Consumer(threading.Thread):def run(self):global gMoneyglobal gConditionwhile True:money = random.randint(100, 500)gCondition.acquire()# 这里要给个while循环判断,因为等轮到这个线程的时候# 条件有可能又不满足了while gMoney < money:if gTimes >= gTotalTimes:gCondition.release()returnprint('%s准备取%s元钱,剩余%s元钱,不足!'%(threading.current_thread(),money,gMoney))gCondition.wait()gMoney -= moneyprint('%s当前取出%s元钱,剩余%s元钱' % (threading.current_thread(), money, gMoney))time.sleep(0.5)gCondition.release()def main():for x in range(5):Consumer(name='消费者线程%d'%x).start()for x in range(2):Producer(name='生产者线程%d'%x).start()if __name__ == '__main__':main()

Queue线程安全队列:

在线程中,访问一些全局变量,加锁是一个经常的过程。如果你是想把一些数据存储到某个队列中,那么Python内置了一个线程安全的模块叫做queue模块。Python中的queue模块中提供了同步的、线程安全的队列类,包括FIFO(先进先出)队列Queue,LIFO(后入先出)队列LifoQueue。这些队列都实现了锁原语(可以理解为原子操作,即要么不做,要么都做完),能够在多线程中直接使用。可以使用队列来实现线程间的同步。相关的函数如下:

初始化Queue(maxsize):创建一个先进先出的队列。
qsize():返回队列的大小。
empty():判断队列是否为空。
full():判断队列是否满了。
get():从队列中取最后一个数据。
put():将一个数据放到队列中。

使用生产者与消费者模式多线程下载表情包:

import threading
import requests
from lxml import etree
from urllib import request
import os
import re
from queue import Queueclass Producer(threading.Thread):headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}def __init__(self,page_queue,img_queue,*args,**kwargs):super(Producer, self).__init__(*args,**kwargs)self.page_queue = page_queueself.img_queue = img_queuedef run(self):while True:if self.page_queue.empty():breakurl = self.page_queue.get()self.parse_page(url)def parse_page(self,url):response = requests.get(url,headers=self.headers)text = response.texthtml = etree.HTML(text)imgs = html.xpath("//div[@class='page-content text-center']//a//img")for img in imgs:if img.get('class') == 'gif':continueimg_url = img.xpath(".//@data-original")[0]suffix = os.path.splitext(img_url)[1]alt = img.xpath(".//@alt")[0]alt = re.sub(r'[,。??,/\\·]','',alt)img_name = alt + suffixself.img_queue.put((img_url,img_name))class Consumer(threading.Thread):def __init__(self,page_queue,img_queue,*args,**kwargs):super(Consumer, self).__init__(*args,**kwargs)self.page_queue = page_queueself.img_queue = img_queuedef run(self):while True:if self.img_queue.empty():if self.page_queue.empty():returnimg = self.img_queue.get(block=True)url,filename = imgrequest.urlretrieve(url,'images/'+filename)print(filename+'  下载完成!')def main():page_queue = Queue(100)img_queue = Queue(500)for x in range(1,101):url = "http://www.doutula.com/photo/list/?page=%d" % xpage_queue.put(url)for x in range(5):t = Producer(page_queue,img_queue)t.start()for x in range(5):t = Consumer(page_queue,img_queue)t.start()if __name__ == '__main__':main()

GIL全局解释器锁:
Python自带的解释器是CPython。CPython解释器的多线程实际上是一个假的多线程(在多核CPU中,只能利用一核,不能利用多核)。同一时刻只有一个线程在执行,为了保证同一时刻只有一个线程在执行,在CPython解释器中有一个东西叫做GIL(Global Intepreter Lock),叫做全局解释器锁。这个解释器锁是有必要的。因为CPython解释器的内存管理不是线程安全的。当然除了CPython解释器,还有其他的解释器,有些解释器是没有GIL锁的,见下面:

Jython:用Java实现的Python解释器。不存在GIL锁。更多详情请见:https://zh.wikipedia.org/wiki/Jython
IronPython:用.net实现的Python解释器。不存在GIL锁。更多详情请见:https://zh.wikipedia.org/wiki/IronPython
PyPy:用Python实现的Python解释器。存在GIL锁。更多详情请见:https://zh.wikipedia.org/wiki/PyPy
GIL虽然是一个假的多线程。但是在处理一些IO操作(比如文件读写和网络请求)还是可以在很大程度上提高效率的。在IO操作上建议使用多线程提高效率。在一些CPU计算操作上不建议使用多线程,而建议使用多进程。

多线程下载百思不得姐段子作业:

import requests
from lxml import etree
import threading
from queue import Queue
import csvclass BSSpider(threading.Thread):headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}def __init__(self,page_queue,joke_queue,*args,**kwargs):super(BSSpider, self).__init__(*args,**kwargs)self.base_domain = 'http://www.budejie.com'self.page_queue = page_queueself.joke_queue = joke_queuedef run(self):while True:if self.page_queue.empty():breakurl = self.page_queue.get()response = requests.get(url, headers=self.headers)text = response.texthtml = etree.HTML(text)descs = html.xpath("//div[@class='j-r-list-c-desc']")for desc in descs:jokes = desc.xpath(".//text()")joke = "\n".join(jokes).strip()link = self.base_domain+desc.xpath(".//a/@href")[0]self.joke_queue.put((joke,link))print('='*30+"第%s页下载完成!"%url.split('/')[-1]+"="*30)class BSWriter(threading.Thread):headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}def __init__(self, joke_queue, writer,gLock, *args, **kwargs):super(BSWriter, self).__init__(*args, **kwargs)self.joke_queue = joke_queueself.writer = writerself.lock = gLockdef run(self):while True:try:joke_info = self.joke_queue.get(timeout=40)joke,link = joke_infoself.lock.acquire()self.writer.writerow((joke,link))self.lock.release()print('保存一条')except:breakdef main():page_queue = Queue(10)joke_queue = Queue(500)gLock = threading.Lock()fp = open('bsbdj.csv', 'a',newline='', encoding='utf-8')writer = csv.writer(fp)writer.writerow(('content', 'link'))for x in range(1,11):url = 'http://www.budejie.com/text/%d' % xpage_queue.put(url)for x in range(5):t = BSSpider(page_queue,joke_queue)t.start()for x in range(5):t = BSWriter(joke_queue,writer,gLock)t.start()if __name__ == '__main__':main()

2019.1.12日 PYTHON多线程爬虫笔记相关推荐

  1. python多线程爬虫实例-Python多线程爬虫简单示例

    python是支持多线程的,主要是通过thread和threading这两个模块来实现的.thread模块是比较底层的模块,threading模块是对thread做了一些包装的,可以更加方便的使用. ...

  2. Python 网络爬虫笔记1 -- Requests库

    Python 网络爬虫笔记1 – Requests库 Python 网络爬虫系列笔记是笔者在学习嵩天老师的<Python网络爬虫与信息提取>课程及笔者实践网络爬虫的笔记. 课程链接:Pyt ...

  3. python多线程爬虫实例-Python实现多线程爬虫

    编辑推荐: 本文主要介绍对Python多线程爬虫实战的整体的思路,希望对大家有帮助. 本文来知乎,由火龙果软件Alice编辑,推荐. 最近在写爬虫程序爬取亚马逊上的评论信息,因此也自学了很多爬虫相关的 ...

  4. 2021-03-10 Python多线程爬虫快速批量下载图片

    Python多线程爬虫快速批量下载图片 1.完成这个需要导入的模块 urllib,random,queue(队列),threading,time,os,json 第三方模块的安装 键盘win+R,输入 ...

  5. Python 网络爬虫笔记11 -- Scrapy 实战

    Python 网络爬虫笔记11 – Scrapy 实战 Python 网络爬虫系列笔记是笔者在学习嵩天老师的<Python网络爬虫与信息提取>课程及笔者实践网络爬虫的笔记. 课程链接:Py ...

  6. Python 网络爬虫笔记10 -- Scrapy 使用入门

    Python 网络爬虫笔记10 – Scrapy 使用入门 Python 网络爬虫系列笔记是笔者在学习嵩天老师的<Python网络爬虫与信息提取>课程及笔者实践网络爬虫的笔记. 课程链接: ...

  7. Python 网络爬虫笔记9 -- Scrapy爬虫框架

    Python 网络爬虫笔记9 – Scrapy爬虫框架 Python 网络爬虫系列笔记是笔者在学习嵩天老师的<Python网络爬虫与信息提取>课程及笔者实践网络爬虫的笔记. 课程链接:Py ...

  8. Python 网络爬虫笔记8 -- 股票数据定向爬虫

    Python 网络爬虫笔记8 – 股票数据定向爬虫 Python 网络爬虫系列笔记是笔者在学习嵩天老师的<Python网络爬虫与信息提取>课程及笔者实践网络爬虫的笔记. 课程链接:Pyth ...

  9. Python 网络爬虫笔记6 -- 正则表达式

    Python 网络爬虫笔记6 – 正则表达式 Python 网络爬虫系列笔记是笔者在学习嵩天老师的<Python网络爬虫与信息提取>课程及笔者实践网络爬虫的笔记. 课程链接:Python网 ...

最新文章

  1. python转盘抽奖_react 抽奖转盘 ----小计
  2. ISA Server 2004 FAQ集
  3. 3.C#中泛型类的进一步探讨
  4. 细数二十世纪最伟大的十大算法
  5. 技术干货 | 阿里云数据库PostgreSQL 13大版本揭秘
  6. Java Spring MVC model学习
  7. 第六节:反射(几种写法、好处和弊端、利用反射实现IOC)
  8. Mybatis MySQL批量更新
  9. python附件发送到邮箱里_使用python将最新的测试报告以附件的形式发到指定邮箱...
  10. Python中表达式int('0x10, 36)的值是。。。
  11. wincc安装信息服务器,wincc客户端与服务器配置
  12. UE4遇到的各种奇葩问题
  13. 浅谈SEO的优化问题
  14. 导航栏保持居中并使用swiper作为轮播图进行背景轮播背景
  15. 超全面!Verilog入门到实战系列(1)
  16. 两种方法 Find inorder succ of BST
  17. 《炬丰科技-半导体工艺》 碳化硅大功率高频电子器件上的薄氮化镓
  18. Win10下LoadRunner12 下载安装汉化图文教程(含LoadRunner安装包)
  19. html三栏布局的方式,12种方式实现三栏布局/圣杯布局
  20. 如何在 SAP 中计算物料在某期的库存数量和金额?

热门文章

  1. 基于大模型GPT,如何提炼出优质的Prompt
  2. Nginx中的rewrite指令(break,last,redirect,permanent)
  3. ROS学习(18)机器人SLAM功能包——cartographer的安装与测试
  4. node_modules包路径查找规则,依赖版本生效规则
  5. linux64x gtx970,NVIDIA英伟达显卡驱动460.67版For Linux x64(2021年3月19日发布)
  6. springboot启动和关闭时的事件操作:
  7. Style.xml的妙用(一)
  8. Trojan客户端使用教程
  9. 最好听的英文歌曲《Take Me To Your Heart》,清澈见底
  10. HTTP状态码@蓝神