在开始后面的内容之前,先来解释一下urllib2中的两个个方法:info and geturl

urlopen返回的应答对象response(或者HTTPError实例)有两个很有用的方法info()和geturl()

1.geturl():

这个返回获取的真实的URL,这个很有用,因为urlopen(或者opener对象使用的)或许会有重定向。获取的URL或许跟请求URL不同。

以人人中的一个超级链接为例,

我们建一个urllib2_test10.py来比较一下原始URL和重定向的链接:

from urllib2 import Request, urlopen;old_url = 'http://rrurl.cn/b1UZuP';
req = Request(old_url);
response = urlopen(req);
print 'Old url :' + old_url;
print 'Real url :' + response.geturl();

运行之后可以看到真正的链接指向的网址:

2.info():

这个返回对象的字典对象,该字典描述了获取的页面情况。通常是服务器发送的特定头headers。目前是httplib.HTTPMessage 实例。

经典的headers包含"Content-length","Content-type",和其他内容。

我们建一个urllib2_test11.py来测试一下info的应用:

from urllib2 import Request, urlopen;old_url = 'http://www.baidu.com';
req = Request(old_url);
response = urlopen(req);
print 'Info():';
print response.info();

运行的结果如下,可以看到页面的相关信息:

下面来说一说urllib2中的两个重要概念:Openers和Handlers。

1.Openers:

当你获取一个URL你使用一个opener(一个urllib2.OpenerDirector的实例)。

在前面,我们都是使用的默认的opener,也就是urlopen。

它是一个特殊的opener,可以理解成opener的一个特殊实例,传入的参数仅仅是url,data,timeout。

2.Handles:

Openers使用处理器handlers,所有的“繁重”工作由handlers处理。

每个handlers知道如何通过特定协议打开URLs,或者如何处理URL打开时的各个方面。

例如HTTP重定向或者HTTP cookies。

如果你希望用特定处理器获取URLs你会想创建一个openers,例如获取一个能处理cookie的opener,或者获取一个不重定向的opener。

要创建一个 opener,可以实例化一个OpenerDirector,然后调用.add_handler(some_handler_instance)。

同样,可以使用build_opener,这是一个更加方便的函数,用来创建opener对象,他只需要一次函数调用。
build_opener默认添加几个处理器,但提供快捷的方法来添加或更新默认处理器。

其他的处理器handlers你或许会希望处理代理,验证,和其他常用但有点特殊的情况。

install_opener 用来创建(全局)默认opener。这个表示调用urlopen将使用你安装的opener。

Opener对象有一个open方法。

该方法可以像urlopen函数那样直接用来获取urls:通常不必调用install_opener,除了为了方便。

说完了上面两个内容,下面我们来看一下基本认证的内容,这里会用到上面提及的Opener和Handler。

2.1 Basic Authentication 基本验证

为了展示创建和安装一个handler,我们将使用HTTPBasicAuthHandler。

当需要基础验证时,服务器发送一个header(401错误码) 请求验证。这个指定了scheme 和一个‘realm’,看起来像这样:Www-authenticate: SCHEME realm="REALM".

例如
Www-authenticate: Basic realm="cPanel Users"

客户端必须使用新的请求,并在请求头里包含正确的姓名和密码。

这是“基础验证”,为了简化这个过程,我们可以创建一个HTTPBasicAuthHandler的实例,并让opener使用这个handler就可以啦。

HTTPBasicAuthHandler使用一个密码管理的对象来处理URLs和realms来映射用户名和密码。

如果你知道realm(从服务器发送来的头里)是什么,你就能使用HTTPPasswordMgr。

通常人们不关心realm是什么。那样的话,就能用方便的HTTPPasswordMgrWithDefaultRealm。

这个将在你为URL指定一个默认的用户名和密码。

这将在你为特定realm提供一个其他组合时得到提供。

我们通过给realm参数指定None提供给add_password来指示这种情况。

最高层次的URL是第一个要求验证的URL。你传给.add_password()更深层次的URLs将同样合适。

说了这么多废话,下面来用一个例子演示一下上面说到的内容。

我们建一个urllib2_test12.py来测试一下info的应用:

# -*- coding: utf-8 -*-import urllib2  # 创建一个密码管理者
password_mgr = urllib2.HTTPPasswordMgrWithDefaultRealm();
# 添加用户名和密码
top_level_url = "http://example.com/foo/"; # 如果知道 realm, 我们可以使用他代替 ``None``.
# password_mgr.add_password(None, top_level_url, username, password)
password_mgr.add_password(None, top_level_url,'why', '1223');# 创建了一个新的handler
handler = urllib2.HTTPBasicAuthHandler(password_mgr);# 创建 "opener" (OpenerDirector 实例)
opener = urllib2.build_opener(handler);a_url = 'http://www.baidu.com/';# 使用 opener 获取一个URL
opener.open(a_url);# 安装 opener.
# 现在所有调用 urllib2.urlopen 将用我们的 opener.
urllib2.install_opener(opener);

注意:以上的例子我们仅仅提供我们的HHTPBasicAuthHandler给build_opener。

默认的openers有正常状况的handlers:ProxyHandler,UnknownHandler,HTTPHandler,HTTPDefaultErrorHandler, HTTPRedirectHandler,FTPHandler, FileHandler, HTTPErrorProcessor。

代码中的top_level_url 实际上可以是完整URL(包含"http:",以及主机名及可选的端口号)。

例如:http://example.com/。

也可以是一个“authority”(即主机名和可选的包含端口号)。

例如:“example.com” or “example.com:8080”。

后者包含了端口号。

2.2 Cookie

获取Cookie保存到变量

首先,我们先利用CookieJar对象实现获取cookie的功能,存储到变量中,先来感受一下

# -*- coding: utf-8 -*-import urllib2
import cookielib#声明一个CookieJar对象实例来保存cookie
cookie = cookielib.CookieJar()#利用urllib2库的HTTPCookieProcessor对象来创建cookie处理器
handler=urllib2.HTTPCookieProcessor(cookie)#通过handler来构建opener
opener = urllib2.build_opener(handler)#此处的open方法同urllib2的urlopen方法,也可以传入request
response = opener.open('http://www.baidu.com')print 'name'+' |'+' '+'value'
for item in cookie:print item.name,' | ',item.value

我们使用以上方法将cookie保存到变量中,然后打印出了cookie中的值,运行结果如下

保存Cookie到文件

在上面的方法中,我们将cookie保存到了cookie这个变量中,如果我们想将cookie保存到文件中该怎么做呢?这时,我们就要用到FileCookieJar这个对象了,在这里我们使用它的子类MozillaCookieJar来实现Cookie的保存。

import cookielib
import urllib2#设置保存cookie的文件,同级目录下的cookie.txt
filename = 'cookie.txt'
#声明一个MozillaCookieJar对象实例来保存cookie,之后写入文件
cookie = cookielib.MozillaCookieJar(filename)
#利用urllib2库的HTTPCookieProcessor对象来创建cookie处理器
handler = urllib2.HTTPCookieProcessor(cookie)
#通过handler来构建opener
opener = urllib2.build_opener(handler)
#创建一个请求,原理同urllib2的urlopen
response = opener.open("http://www.baidu.com")
#保存cookie到文件
cookie.save(ignore_discard=True, ignore_expires=True)

关于最后save方法的两个参数在此说明一下:

gnore_discard的意思是即使cookies将被丢弃也将它保存下来,ignore_expires的意思是如果在该文件中cookies已

经存在,则覆盖原文件写入,在这里,我们将这两个全部设置为True。运行之后,cookies将被保存到cookie.txt文

件中,我们查看一下内容,附图如下

从文件中获取Cookie并访问

那么我们已经做到把Cookie保存到文件中了,如果以后想使用,可以利用下面的方法来读取cookie并访问网站,感受一下

import cookielib
import urllib2#创建MozillaCookieJar实例对象
cookie = cookielib.MozillaCookieJar()
#从文件中读取cookie内容到变量
cookie.load('cookie.txt', ignore_discard=True, ignore_expires=True)
#创建请求的request
req = urllib2.Request("http://www.baidu.com")
#利用urllib2的build_opener方法创建一个opener
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response = opener.open(req)
print response.read()

设想,如果我们的 cookie.txt 文件中保存的是某个人登录百度的cookie,那么我们提取出这个cookie文件内容,就可以用以上方法模拟这个人的账号登录百度。

利用cookie模拟网站登录

可参考这两篇文章:http://www.cnblogs.com/sysu-blackbear/p/3629770.html

http://www.jb51.net/article/63759.htm

原文链接:http://blog.csdn.net/pleasecallmewhy/article/details/8924889

网络爬虫(四):Opener与Handler的介绍和实例应用相关推荐

  1. [Python]网络爬虫(四):Opener与Handler的介绍和实例应用

    更好的学习网址:http://www.voidspace.org.uk/python/articles/urllib2.shtml#openers-and-handlers 以下为个人学习笔记. 在开 ...

  2. 设计模式(四)行为型模式介绍及实例(上)

    文章目录 一.模板模式 1.1 模板模式定义 1.2 模板模式特点 1.3 模板模式主要角色 1.4 模板模式实现方式 1.5 模板模式应用场景 二.策略模式 2.1 策略模式定义 2.2 策略模式主 ...

  3. Python3网络爬虫(四):使用User Agent和代理IP隐藏身份

    运行平台:Windows Python版本:Python3.x IDE:Sublime text3 转载请注明作者和出处:http://blog.csdn.net/c406495762/article ...

  4. Python3网络爬虫(四): 登录

    转载:http://www.yiibai.com/python/python3-webbug-series4.html 第一步: 使用 Fiddler 观察浏览器行为 在开着 Fiddler 的条件下 ...

  5. 爬虫教程 python3_Python3网络爬虫(四): 登录

    今天的工作很有意思, 我们用 Python 来登录网站, 用Cookies记录登录信息, 然后就可以抓取登录之后才能看到的信息. 今天我们拿知乎网来做示范. 为什么是知乎? 这个很难解释, 但是肯定的 ...

  6. 网络爬虫——四种思维导图

    1 柱形图 import numpy as np import matplotlib.pyplot as plt#准备数据 x=np.array(['baseketball','football',' ...

  7. 网络爬虫中的模拟登陆获取数据(实例教学1)

    目录 模拟登陆的原因 如何模拟登陆 实战(demo) 模拟登陆的原因 很多网站,我们是无法直接获得服务器返回的数据,需要输入用户名及密码才能看到数据.如我们登陆人人网时,网站网址http://www. ...

  8. python 网络爬虫

    一.网络爬虫的定义 网络爬虫,即Web Spider,是一个很形象的名字. 把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛. 网络蜘蛛是通过网页的链接地址来寻找网页的. 从网站某一 ...

  9. python网络爬虫学习资料

    第一:Python爬虫学习系列教程(来源于某博主:http://cuiqingcai.com/1052.html) Python版本:2.7 整体目录: 一.爬虫入门 1. Python爬虫入门一之综 ...

最新文章

  1. 神经网络中参数数量的计算
  2. Java对象转xml报文和xml报文转Java对象帮助类
  3. Linux Kernel TCP/IP Stack — L7 Layer — 高性能网络 I/O 服务器模型
  4. 计算机怎么取消脱敏设置,一种敏感数据自适应的脱敏方法、系统技术方案
  5. XmlSerializer 对象的Xml序列化和反序列化,XMLROOT别名设置
  6. 吴恩达《机器学习》学习笔记一——初识机器学习
  7. 以下数据库收录外文文献全文的有_【讲座】外文文献的检索与获取
  8. 计算机系毕业论文指导老师评语,设计指导教师的评语
  9. python 顺序读取文件夹下面的文件(自定义排序方式)
  10. 照片放大工具Topaz Gigapixel AI for Mac
  11. 京东618大促,全店快递如何批量打印
  12. xcode真机调试--添加iOS最新版本-添加最新的 DeveloperDiskImage
  13. 线性嵌套实例(三个小实例)
  14. 台湾繁体字和大陆汉语转换
  15. Java读取环境变量
  16. 理解围绕软件技术标准的上层动机和力量
  17. HTML5网页设计阶梯教程(2)——插入图片与文字编辑
  18. broadcom linux 博客,Broadcom SDK6.4.4驱动架构简单理解
  19. 安装Linux引导windows双系统,不出现引导界面
  20. ZOJ--3778--Talented Chef--数学智力题

热门文章

  1. Matlab中产生正态分布随机数的函数normrnd-----用来产生高斯随机矩阵
  2. QQ2012 Beta1登录协议之重定向
  3. form表单控件及控件属性
  4. windows上安装Apollo
  5. 对两个有序数组重新去重合并排序js实现
  6. Win7经典漏洞永恒之蓝复现
  7. Java 简易教务管理系统
  8. Android判断国家以及系统当前的语言
  9. 【openGauss/MogDB的uncommitted xmin问题解决】
  10. 随笔:关于FPS网络游戏“行业标准”(一)