python 爬虫(爬取网页的img并下载)
from urllib.request import urlopen # 引用第三方库 import requests #引用requests/用于访问网站(没安装需要安装) from pyquery import PyQuery as pq #引用PyQuery用于 解析 # def get_url(): # # url = 'https://s2.app1108017098.qqopenapp.com/?from=singlemessage&isappinstalled=0' # url = 'https://hm.baidu.com/hm.gif?cc=0&ck=1&cl=24-bit&ds=1920x1080&vl=328&ep=%7B%22netAll%22%3A168%2C%22netDns%22%3A23%2C%22netTcp%22%3A137%2C%22srv%22%3A49%2C%22dom%22%3A497%2C%22loadEvent%22%3A910%7D&et=87&ja=0&ln=zh-cn&lo=0<=1545373503&rnd=931647730&si=85ae31d909724b3fa587d26d1a21ab94&v=1.2.35&lv=2' # def get(): # ret = urlopen(url).read()# 获取网页的源码 # print(ret) # f = open('te.txt', 'wb') # 若是'wb'就表示写二进制文件 # f.write(ret) # f.close() # return get#返回函数 # # get_func = get_url()#函数接收 # get_func()#输出 调用 # import requests # from pyquery import PyQuery as pq #爬取网页 html = requests.get('http://www.4399.com/flash/gamehw.htm').content.decode("gb2312") #解析 doc = pq(html) # f = open('te.txt', 'w',encoding='utf-8') # 若是'wb'就表示写二进制文件 # f.write(html) # f.close() # 选择器 筛选语法 adc = doc('.tm_list > li > a').items() for adv in adc:# url = adv.find('img')#找到html下的img 和 srcurl_q = adv.find('img').attr('lz_src')if url_q == None:url_q = adv.find('img').attr('src')#访问地址url_a = requests.get(url =url_q).content#拿到HTML下的名称name = adv.find('b').text()print("下载的图像:%s,地址为 %s" %(name,url_q))#打开文件目录with open("./1/"+name+".jpg",'wb') as file:#保存图片 file.write(url_a) print("图片下载完毕")
转载于:https://www.cnblogs.com/xiao-zhi/p/10157185.html
python 爬虫(爬取网页的img并下载)相关推荐
- Python爬虫爬取网页数据并存储(一)
Python爬虫爬取网页数据并存储(一) 环境搭建 爬虫基本原理 urllib库使用 requests库使用 正则表达式 一个示例 环境搭建 1.需要事先安装anaconda(或Python3.7)和 ...
- python爬虫爬取网页新闻标题-看完保证你会
python爬虫爬取网页新闻标题方法 1.首先使用浏览自带的工具--检查,查找网页新闻标题对应的元素位置,这里查到的新闻标题是在 h3 标签中 2.然后使用编辑器编写python代码 2.1方法一: ...
- python爬虫爬取网页图片_Python爬虫:爬取网页图片
先分析查找要爬取图片的路径 在浏览器F12 审查元素 整体实现代码 # -- coding:UTF-8 -- import requests from bs4 import BeautifulSoup ...
- 利用Python爬虫爬取网页福利图片
最近几天,学习了爬虫算法,通过参考书籍,写下自己简单爬虫项目: 爬取某福利网站的影片海报图片 环境:anaconda3.5+spyder3.2.6 目录 1.本节目标 2.准备工作 3.抓取分析 4. ...
- python爬取网页代码-python爬虫爬取网页所有数据详细教程
Python爬虫可通过查找一个或多个域的所有 URL 从 Web 收集数据.Python 有几个流行的网络爬虫库和框架.大家熟知的就是python爬取网页数据,对于没有编程技术的普通人来说,怎么才能快 ...
- 上手快!!福利局!新手如何使用python爬虫爬取网页图片(使用正则进行数据解析)当然这个新手是我自己
作为一个python新入门小白,突然就想发个博客,一方面为了记录学习历程,一方面能分享给新入门的同学经验,更多的是想和大家一起学习和交流.以下是我以小白的角度分享的爬虫的相关知识和一个简单的爬取网页图 ...
- python爬虫爬取网页壁纸图片(《底特律:变人》)
参考文章:https://www.cnblogs.com/franklv/p/6829387.html 爬虫爬取网址:http://www.gamersky.com/news/201804/10396 ...
- python 爬虫 表格,python爬虫爬取网页表格数据
用python爬取网页表格数据,供大家参考,具体内容如下 from bs4 import BeautifulSoup import requests import csv import bs4 #检查 ...
- 用python爬虫爬取网页壁纸图片(彼岸桌面网唯美图片)
参考文章:https://www.cnblogs.com/franklv/p/6829387.html 今天想给我的电脑里面多加点壁纸,但是嫌弃一个个保存太慢,于是想着写个爬虫直接批量爬取,因为爬虫只 ...
- python爬虫爬取网页信息
爬虫流程:准备工作➡️爬取网页,获取数据(核心)➡️解析内容➡️保存数据 解析页面内容:使用beautifulsoup定位特定的标签位置,使用正则表达式找到具体内容 import导入一些库,做准备工作 ...
最新文章
- 以云原生的名义,举办一次技术聚会
- 分布式,微信小程序 服务器保持登入态解决方案,
- 没有统计学基础可以学python-想入门数据分析,现在转行还来得及吗?
- Netty源码解析8-ChannelHandler实例之CodecHandler
- BAT 批处理命令 - 文件批量复制、克隆功能实例演示
- 如何积累自己的技术认知
- while(getchar()=='\n')continue;为什么作用是清空行
- Oracle建立全文索引详解
- JS数组的需要注意的问题
- nginx_keepalived配置(转载保存)
- YOCTO项目介绍:通过提供模版、工具和方法帮助开发者创建基于linux内核的定制系统
- [转载] 使用Python中的NLTK和spaCy删除停用词与文本标准化
- 拼装机器人感想_机器人学习心得总结
- http服务(nginx、apache)停用不安全的SSL协议、TLS1.0和TLS1.1协议/启用TLS1.3
- 金融 App 审核被拒原因及解决方案汇总
- 大数据时代对存储发展的要求有哪些
- 互联网大厂的年终奖(华为分红400亿,腾讯每人发股票 )
- 实用技巧 | Chrome浏览器如何对标签页进行分组整理?
- Android 性能优化之线程优化
- 程序员啊,他又加班了!