文章目录

  • 前言
  • 一、模块使用
  • 二、数据的爬取与建立url列表
    • 1.获取所有网页详情页链接
    • 2.获取详情页html源码并筛选我们需要的信息
  • 3.提取信息进行excel本地保存
    • 1.Excel结果展示
  • 总结

前言

本次案例是爬取51job网站的职位信息,如有错误,还望指正,转载请注明出处。
本次爬取网址:点击此处


提示:以下是本篇文章正文内容,下面案例可供参考

一、模块使用

1.本次用到的模块一共有四个

import openpyxl
import bs4
import requests as r
from selenium import webdriver

具体的模块详细使用将在下面列出,有需要可自行了解:
详情页URL获取模块:selenium
HTML标签处理模块:bs4.beautifulsoup
Python—requests模块详解
openpyxl处理excle表格详解

二、数据的爬取与建立url列表

1.获取所有网页详情页链接

这里用selenium模块是因为:可以获取到动态加载页面的数据比如js渲染后的代码、下拉滚轮得到的数据和一些框内隐藏元素等等。
调用selenium模块需要下载浏览器驱动:谷歌浏览器驱动下载地址,下载解压后放在python根目录下就好。注意:浏览器版本要与驱动版本一致,否则会失效。
如果还有不会安装selenium模块的朋友请看这篇文章:selenium安装

1):首先观察一下我们要爬取的页面,定位到需要爬取页面的位置,我们发现他的父标签是"div"和" class=“j_joblist”,
而详情页的链接在父标签下的div标签下的a标签里(这里有点绕,结合图片理解)
由此可知我们先要定位到a标签,在从中提取"href"标签中的地址,将地址放在urllists列表里。第一步就算完成了!

代码如下(示例):

h = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:88.0) Gecko/20100101 Firefox/88.0"} # 伪造浏览器信息,第二步会用到。
def get_joburllist():                   # 定义函数get_joburllisturllists = [ ]                     # 一个列表变量,用于接收所有网页详情页链接chrome_driver = r'C:\Users\Administrator\AppData\Local\Programs\Python\Python36\chromedriver.exe'  #chromedriver的文件位置,r代表原始路径wd = webdriver.Chrome(executable_path = chrome_driver)                      #创建浏览器,这里用谷歌浏览器,后接驱动器地址wd.implicitly_wait(2)               # 智能等待一个元素被发现,或一个命令完成。如果超出了设置时间的则抛出异常。#访问51job网站for i in range(1,34):              # 这里两个参数,(1,34),1代表当前页,34代表总页数,可自行修改wd.get("https://search.51job.com/list/010000,000000,0000,00,9,99,%E7%BD%91%E7%BB%9C%E5%AE%89%E5%85%A8,2,i.html")   # 访问链接内的地址,i为第i页joblists = wd.find_elements_by_xpath('//div[@class="j_joblist"]/div/a')  # 查找所有div下class属性为"j_joblist"的子节点为div的子节点为a的标签for urllist in joblists:                          # 循环获取所有详情页的href链接href_list = urllist.get_attribute("href")       # 获取href属性的内容urllists.append(href_list)wd.quit()                                               # 关闭浏览器#print(urllists)return urllists

至此,网页详情页的链接都放在urllists列表里了。我们可以进行下一步的操作了

2.获取详情页html源码并筛选我们需要的信息

思路: 由于我们第一步已经获取到了各个详情页的url,所以可以利用requests返回html源码,利用浏览器审查,逐一找到需要信息的标签并筛选出来,最后找到我们需要文本信息,放到列表中返回。

代码如下(示例):

f get_html(url):                         # 这里的url指的是第一步获取的详情页的urlresponse = r.get(url,headers = h)       # 伪造请求头信息response.encoding = "gbk"             # 更改编码为gbk return response.text                 # 返回html源码def get_textinfo(html):                       # 进行源码筛选jobname = []                           # 以下为定义模块信息 , 工作名称jobmoney = []                         # 工资comname = []                           # 公司名称jobjy = []                               # 工作经验jobyh = []                               # 岗位福利jobneed = []                         # 岗位职责cominfo = []                         # 公司信息soup = bs4.BeautifulSoup(html,"html.parser")    # 两个参数,第一个参数为html源码,第二个参数为解析html文件,返回结果给soup# Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象# 这里要做一下说明,因为获取到的详情页中,有一部分并没有按照规定模板来进行显示,
# 而是直接跳转到公司官网,所以进行筛选时会报错,这里用if来做一个简单判断,
# 如果获取的html源码中并不是按照规定模板来显示的,我们将pass掉这个信息jn = soup.find("div",class_="cn")              strjn = str(jn)                                 # 将类型转换为str,方便查找jnfind = strjn.find("h1")                       # 查找“h1”字符,并将查找结果给jhfindif jnfind == -1:                                # 如果返回结果为 -1 代表没有h1标签 (find没有找到时会返回-1)#print ("no")joblist = ["查看此招聘信息请点击链接:"]                                # 则返回空表else:                                            # 否则代表该源码符合规定模板,正常进行筛选#print(jn.h1.text)jobname.append(jn.h1.text)                   # 添加h1标签文本信息jm = soup.find("div",class_="cn")         jobmoney.append(jm.strong.text)             # 添加strong标签文本信息cn = soup.find("a",class_="catn")comname.append(cn.text)                      # 添加公司名称jj = soup.find("p",class_="msg ltype")        jobjy.append(jj.text.replace("\xa0\xa0|\xa0\xa0"," "))      添加工作经验文本信息,并将\xa0替换成空字符串,方便查看jy = soup.findAll("span",class_="sp4")     # 福利信息这里有点特殊,每个福利都是独立的,我们需要将他放在一个字符串里,并添加到福利信息列表。jystr = ""                                 # 建立空字符串for i in jy:                                # 从jy(jy代表找到的所有符合条件的标签)中逐个调用并添加到jystr中,以空格隔开。jystr += i.text + " "jobyh.append(jystr)                         # 将完成的字符串添加到列表中jn = soup.find("div",class_="bmsg job_msg inbox")jnstr = ""for i in jn.findAll("p"):                  # 跟上一个同理,findAll所有'p'标签 并放到一个空字符串中jnstr += i.text + " "jobneed.append(jnstr)ci = soup.find("div",class_="tmsg inbox")cominfo.append(ci.text)                        # 添加公司信息joblist = jobname + jobmoney + comname + jobjy + jobyh + jobneed + cominfo  # 将独立的列表信息合并到一起,成为一个大的列表。return joblist

3.提取信息进行excel本地保存

思路: 终于来到收尾的一步,这里也是我们调用整个代码执行的总步骤,可以说上面写的函数都是在这里被依次调用,本次主要利用openpyxl来进行保存,并调用之前两步写的函数进行配合,废话不多说上代码。


def save_info():wb = openpyxl.Workbook()               # 获取工作簿 就是一个excle层面的对象,在获取工作簿的同时已经创建了一个默认的工作表ws = wb.active                         # 获取当前工作表titlelist = ["岗位名称","岗位薪资","公司名称","工作经验","岗位诱惑","岗位职责","公司信息","岗位网址"]  # 先创建一个title,方便我们Excel表的查看。             ws.append(titlelist)                    # 添加titlelist到Excel表中joburllist = get_joburllist()         # 先调用第一步,获得所有详情页的url列表,并保存到"joburllist"中for i in joburllist:                    html = get_html(i)                 # 依次取出每一个详情页的url,并获取这个岗位的源码jobinfolist = get_textinfo(html) # 对每个岗位扣取文字信息,并返回一个列表jobinfolist.append(i)              # 添加岗位网址信息ws.append(jobinfolist)                # 将扣取得文字信息,写入到excel的内存空间wb.save("51jobplusmax.xlsx")       # 保存if __name__ == "__main__":                  # 直接执行(F5)save_info()                               # 执行save_info() 函数# 这些是测试信息#urllists = get_joburllist()            #html = get_html(urllists)#get_textinfo(html)#print(urllists)

到此直接运行,我们就可以爬取到所有的有关网络安全职位的信息了,我在今天查询时是一共一千六百多条,爬了1个小时(慢的一批)。

1.Excel结果展示

总结

这次案例,从学习新模块到实际应用,花费了很长时间,查找了很多资料,我会放在下面供大家学习参考,希望能节省点你的时间。

这是本人进行的第一次的爬虫案例分享,如有错误,还望指正,如果能帮助到你,不胜荣幸。

参考文章:

51job爬虫案例

selenium笔记1

selenium——祖传爬虫利器

selenium get_attribute的几种用法

Selenium python中的等待方式

python中bs4.BeautifulSoup的基本用法

python脚本中selenium启动浏览器报错os.path.basename(self.path), self.start_error_message) selenium.common.excep

openpyxl的详细使用

Python-51job爬虫相关推荐

  1. Python Scrapy爬虫框架爬取51job职位信息并保存至数据库

    Python Scrapy爬虫框架爬取51job职位信息并保存至数据库 -------------------------------- 版权声明:本文为CSDN博主「杠精运动员」的原创文章,遵循CC ...

  2. 51job爬虫-xpath

    51job,爬虫 https://search.51job.com/list/180200,000000,0000,32,9,99,%25E5%2589%258D%25E7%25AB%25AF%25E ...

  3. Python网络爬虫进阶+正则表达式

    1 HTML基础 1.1 HTML结构 1.2 HTML各标签结构 1.3 HTML样式 2.正则表达式 2.1 元字符 2.1.1 元字符之. ^ $ * + ? { } 2.1.2 元字符之字符集 ...

  4. python网络爬虫程序技术,Python网络爬虫程序技术

    spContent=该课程是2018年广东省精品在线开放课程.课程主要以爬取学生信息.爬取城市天气预报.爬取网站图像.爬起图书网站图书.爬取商城网站商品等5个项目为依托,讲解Web.正则表达式.Bea ...

  5. 第三百三十八节,Python分布式爬虫打造搜索引擎Scrapy精讲—深度优先与广度优先原理...

    第三百三十八节,Python分布式爬虫打造搜索引擎Scrapy精讲-深度优先与广度优先原理 网站树形结构 深度优先 是从左到右深度进行爬取的,以深度为准则从左到右的执行(递归方式实现)Scrapy默认 ...

  6. Python中爬虫框架或模块的区别

    Python中爬虫框架或模块的区别,我们在Python的学习过程中,需要不断的总结知识点,这样我们才能进步的更快一些. (1)爬虫框架或模块 Python自带爬虫模块:urllib.urllib2; ...

  7. Python Scrapy爬虫框架实战应用

    通过上一节<Python Scrapy爬虫框架详解>的学习,您已经对 Scrapy 框架有了一个初步的认识,比如它的组件构成,配置文件,以及工作流程.本节将通过一个的简单爬虫项目对 Scr ...

  8. python入门爬虫知识点

    Python学习网络爬虫主要分3个大的版块:抓取,分析,存储 当我们在浏览器中输入一个url后回车,后台会发生什么? 简单来说这段过程发生了以下四个步骤: 网络爬虫要做的,简单来说,就是实现浏览器的功 ...

  9. 爬虫书籍-Python网络爬虫权威指南OCR库 NLTK 数据清洗 BeautifulSoup Lambda表达式 Scrapy 马尔可夫模型

    Python网络爬虫权威指南 编辑推荐 适读人群 :需要抓取Web 数据的相关软件开发人员和研究人员 作为一种采集和理解网络上海量信息的方式,网页抓取技术变得越来越重要.而编写简单的自动化程序(网络爬 ...

  10. python爬虫数据提取,Python 信息提取-爬虫,爬虫提取数据, import re

    Python 信息提取-爬虫,爬虫提取数据, import re import requestsimport refrom bs4 import BeautifulSoupurl = "ht ...

最新文章

  1. ai怎么画循环曲线_AI插画设计,用AI制作一个只可爱的短腿柯基插画
  2. 关于我的Android 博客
  3. IDEA 重复代码快速重构
  4. MSSQL的多层嵌套查询
  5. oracle单表存储记录,oracle从各个表获得数据保存到另一个表
  6. 牛客网数据库SQL实战答案解析上篇
  7. php文件上传格式限制,如何在PHP中限制文件上传类型的文件大小?
  8. Base64原理和转换会变大33%左右的原因
  9. word中的神奇的“Alt + X”
  10. day21_Lambda表达式、函数式接口
  11. 微信小程序开发—— tabbar 配置
  12. python xlwt 设置表格的行高方法
  13. 系统集成16真题解析
  14. 检索 COM 类工厂中 CLSID 为 {00024500-0000-0000-C000-000000000046} 的组件时失败,原因是出现以下错误: 80070005
  15. 计算机辅助培训的策略,宁波诺丁汉大学学习策略培训对解决计算机辅助语言教学环境下信息过剩问题的启示...
  16. idea怎么设置成中文
  17. svn: E155009: Failed to run the WC DB work queue associated with原因分析及解决方案
  18. 彻底搞懂0-1背包问题(动态规划)
  19. Google Earth Engine(GEE)——山西省生物量计算
  20. 思科CCIE认证有必要考吗

热门文章

  1. win8.1命令大全
  2. 用py写了个针对淘宝的抢购程序(清空购物车)
  3. 读《蔡康永的说话之道》-表现自己,体现别人
  4. 支付宝代签约当面付支付
  5. frp 内网穿透配置简单明了
  6. 【Java学习之代码学习】 Prog06_九九乘法口诀问题
  7. Lazada最新招商政策,新商家入驻享90天返佣扶持!
  8. 转一篇lucene的使用的文章,写的比较全
  9. 链接服务器查询导致的阻塞
  10. 5分钟商学院-个人篇-学习能力