豆瓣电影排行榜前250 分为10页,第一页的url为https://movie.douban.com/top250,但实际上应该是https://movie.douban.com/top250?start=0 后面的参数0表示从第几个开始,如0表示从第一(肖申克的救赎)到第二十五(触不可及),https://movie.douban.com/top250?start=25表示从第二十六(蝙蝠侠:黑暗骑士)到第五十名(死亡诗社)。等等,

所以可以用一个步长为25的range的for循环参数

复制代码 代码如下:for i in range(0, 250, 25): print(i)

分析完页面组成后,开始获取页面,直接request.get()发现没有返回任何东西,输出一下响应码

url = 'https://movie.douban.com/top250?start=0'res = request.get(url=url)print(res.status_code)

发现返回响应码418

以前没见过这个,拉网线上网查一下,发现给get里面加一个header参数就行了

这里可以用自己浏览器的user-agent,如

headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}

或者用fake_agent(安装直接用pip install fake_agent) 来为自己生成一个随机的agent添加到header字典中

from fake_useragent import UserAgentheaders = {'User-Agent': UserAgent().random}

之后就可以得到页面源码了。

然后使用lxml.etree,即xpath解析页面源码。用浏览器插件xpath finder快速定位到元素

import requests

import lxml.etree as etree

url = 'https://movie.douban.com/top250?start=0'

headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}

res = requests.get(url=url, headers=headers)

print(res.text)

html = etree.HTML(res.text)

name = html.xpath("/html/body/div[3]/div[1]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]")

print(name)

但是直接这样子,解析到的是这样的结果

[]

关于这东西是什么,有文章写的很好:https://www.jb51.net/article/132145.htm

这里我直接写解决部分,在使用xpath解析时,后面加上/text()

name = html.xpath("/html/body/div[3]/div[1]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]/text()")

解决后,再使用xpath finder插件,一步一步获取到电影所有数据

最后把这个写在函数里,外面再套上一开始说的循环,就OK了

# -*- coding: utf-8 -*-

import requests

import lxml.etree as etree

def get_source(page):

url = 'https://movie.douban.com/top250?start={}'.format(page)

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}

print(url)

res = requests.get(url=url, headers=headers)

print(res.status_code)

html = etree.HTML(res.text)

for i in range(1, 26):

name = html.xpath("/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[1]/a/span[1]/text()".format(i))

info = html.xpath("/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[1]/text()".format(i))

score = html.xpath(

"/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/div/span[2]/text()".format(i))

slogan = html.xpath(

"/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[2]/span/text()".format(i))

print(name[0])

print(info[0].replace(' ', ''))

print(info[1].replace(' ', ''))

print(score[0])

print(slogan[0])

n = 1

for i in range(0, 250, 25):

print('第%d页' % n)

n += 1

get_source(i)

print('==========================================')

在定位时,发现有4部电影介绍没有slogan,导致获取到的信息为空列表,也就导致了list.append()会出错。所以我加上了几个差错处理,解决方式可能有点傻,如果有更好的解决办法,洗耳恭听

代码在最后可以看到

EXCEL保存部分

这里我用的xlwt

book = xlwt.Workbook()

sheet = book.add_sheet(u'sheetname', cell_overwrite_ok=True)

创建一个sheet表单。

数据保存到一个大列表中,列表嵌套列表

再通过循环把数据导入到excel表单中

r = 1

for i in LIST: #有10页

for j in i: #有25条数据

c = 2

for x in j: #有5组数据

print(x)

sheet.write(r, c, x)

c += 1

r += 1

最后在保存一下

book.save(r'douban.xls')

注意文件后缀要用xls,用xlsx会导致文件打不开

然后就大功告成了

打开文件,手动加入排名,等部分信息(这些也可以在程序里完成,我嫌麻烦,就没写,直接手动来的快)

前面的✓是我自己整的,用于记录那些看过,那些没看过

这也是我写这个东西的最初的目的

完整代码在下面,仅用于参考

# -*- coding: utf-8 -*-

import requests

import lxml.etree as etree

import xlwt

def get_source(page):

List = []

url = 'https://movie.douban.com/top250?start={}'.format(page)

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}

print(url)

res = requests.get(url=url, headers=headers)

print(res.status_code)

html = etree.HTML(res.text)

for i in range(1, 26):

list = []

name = html.xpath("/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[1]/a/span[1]/text()".format(i))

info = html.xpath("/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[1]/text()".format(i))

score = html.xpath(

"/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/div/span[2]/text()".format(i))

slogan = html.xpath(

"/html/body/div[3]/div[1]/div/div[1]/ol/li[{}]/div/div[2]/div[2]/p[2]/span/text()".format(i))

try:

list.append(name[0])

except:

list.append('----')

try:

list.append(info[0].replace(' ', '').replace('\n', ''))

except:

list.append('----')

try:

list.append(info[1].replace(' ', '').replace('\n', ''))

except:

list.append('----')

try:

list.append(score[0])

except:

list.append('----')

try:

list.append(slogan[0])

except:

list.append('----')

List.append(list)

return List

n = 1

LIST = []

for i in range(0, 250, 25):

print('第{}页'.format(n))

n += 1

List = get_source(i)

LIST.append(List)

def excel_write(LIST):

book = xlwt.Workbook()

sheet = book.add_sheet(u'sheetname', cell_overwrite_ok=True)

r = 1

for i in LIST: #有10页

for j in i: #有25条数据

c = 2

for x in j: #有5组数据

print(x)

sheet.write(r, c, x)

c += 1

r += 1

book.save(r'douban1.xls') #保存代码

excel_write(LIST)

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持聚米学院。

python爬虫豆瓣影评保存到excel_Python爬虫获取豆瓣电影并写入excel相关推荐

  1. 朴素贝叶斯情感分析评分python_「豆瓣影评」从爬取豆瓣影评到基于朴素贝叶斯的电影评论情感分析(上) - seo实验室...

    豆瓣影评 一.爬取豆瓣影评 基本思路:先获取每个电影的评论区链接,然后依次进入其评论区爬取评论.选取10部电影,每部200条评论. 用到的包为:BeautifulSoup,urllib 这里选取的链接 ...

  2. 从爬取豆瓣影评到基于朴素贝叶斯的电影评论情感分析(上)

    一.爬取豆瓣影评 基本思路:先获取每个电影的评论区链接,然后依次进入其评论区爬取评论.选取10部电影,每部200条评论. 用到的包为:BeautifulSoup,urllib 这里选取的链接为:豆瓣电 ...

  3. 爬虫之数据保存到txt文本中

    本节为保存爬虫数据到txt文本中,还是以排行榜为例,上节可以看:爬虫之数据保存到csv,xlsx等Excel文件中 数据获取代码如下: import requests from fake_userag ...

  4. 我是如何把python爬虫获取到的数据写入Excel的?

    如何将爬虫获取的数据写入Excel,这一点我在爬虫文章几乎都是采用这种方式来进行操作的 写入Excel的目的是为了后续更加方便的使用pandas对数据进行清洗.筛选.过滤等操作. 为进一步数据研究.可 ...

  5. python从数据库取数据保存为excel_python读取数据库表数据并写入excel

    #!/usr/bin/env python#-*- coding: utf-8 -*- '''@Time : 2020/1/1 18:08 @Author : Jason.Jia @contact: ...

  6. scrapy 保存到mysql_scrapy爬虫保存数据到mysql

    直接上例子 # -*- coding: utf-8 -*- #!/usr/bin/python3 # Define your item pipelines here # # Don't forget ...

  7. halcon 将数据保存到excel_Python保存数据到Excel文件的多个sheet

    SEO高手是如何分析竞争对手的一文中的方法,除了可以用于分析竞争对手,还可以每天监控竞争对手的数据动向. 如果想提取出主要竞争对手的排名情况,即排在首页的关键词,对应的着陆页和排名,并将结果保存在Ex ...

  8. python 代理爬种子,保存到MongoDB和json

    1.爬虫 dmoz_spider.py #!/usr/bin/env python # -*- coding:utf-8 -*- # Author:donghui import scrapy impo ...

  9. linux保存python文件_告诉Python将.txt文件保存到Linux上的某个目录 - python

    我试图将文件保存在QCTestFiles目录中,但是我的脚本未将文件写入指定的目录中.我的路径文件是否适用于Linux,如果不是,我如何更改代码以在另一个目录中写入和保存文件?我当前的脚本在brper ...

  10. python怎么读取txt文件内容然后保存到excel-Python实现读取txt文件并转换为excel的方法示例...

    本文实例讲述了Python实现读取txt文件并转换为excel的方法.分享给大家供大家参考,具体如下: 这里的txt文件内容格式为: 892天平天国定都在?A开封B南京C北京(B) Python代码如 ...

最新文章

  1. ORM-Dapper:Dapper百科
  2. openstack——使用命令行删除租户所有信息
  3. Thinkphp 打印最近执行的一条SQL语句
  4. 通俗理解T检验与F检验的区别【转】
  5. php源码自动识别文本中的链接,自动加载识别文件Auto.php
  6. VS Code 轻量级插件推荐
  7. 在微软Ajax框架中异步调用WebService(JavaiScript中调用)
  8. 安装了谷歌服务框架还是闪退_小米手机安装谷歌服务(Google play)
  9. 摩托车头盔的逆向建模与设计
  10. 原生JS封装拖动验证滑块方法
  11. 常用浏览器如何设置代理服务器上网(图文教程)
  12. 邮箱客户端设置 服务器设置,263邮箱客户端设置
  13. 【历史上的今天】5 月 11 日:Dijkstra 算法开发者诞生;电子表格软件的开山鼻祖;机器狗 AIBO 问世
  14. php阿里支付回调逻辑,php 银联支付回调
  15. java deprecated 注释_@Deprecated注解的使用
  16. PHPMYWIND 教程之 碎片数据的使用GetFragment()
  17. python之使用plt笔记
  18. opencv编译笔记(opencv 4.1.0 编译失败缺少opencv_world410d.lib)
  19. prescan安装包(8.5/2019.2版本)下载
  20. Ubuntu 20.04视频播放

热门文章

  1. tp5 怎么安装 后盾网加密解密crypt扩充扩展包?
  2. 微信公众平台开发(111) 现金红包、裂变红包、企业付款
  3. matlab里peaks,MATLAB中peaks函數的用法
  4. 浙江省高考数学python_数学高考与python
  5. Win8.1 WP8: 蓝牙Rfcomm应用
  6. 360众测考核简单记录
  7. java虚拟键盘_如何用Java为其他程序制作虚拟键盘?
  8. matlab算kappa系数,[转载]Kappa系数的计算及应用
  9. 阿里P9:程序员的“青春饭”,从什么时候开始结束?
  10. 美丽心灵:纪念 John Nash 夫妇