Java Jsoup库 实现天气爬取(附第三方库加载方式)
Jsoup库加载:
第一步:下载Jsoup 库下载地址
下载核心库即可
第二步:
在项目下面新建文件夹命名如下,将下载好的 jar 包拖动到该文件中
第三步:
右键 jar 包选择 Build Path——>Add to…
若在 Referenced Libraries出现 相对应的 jar 包,则加载成功
实现效果:
实现细节:
import java.io.IOException;
import java.net.URL;
import java.util.Scanner;import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;public class dataGet {private static Scanner in;public static void main(String[] args) throws IOException {in = new Scanner(System.in);System.out.println("请输入想要查询的省会城市天气:");String City = in.nextLine();Wea(City);// 省会城市未来七天天气}public static void Wea(String City) throws IOException {String[] Cities = { "兰州", "101160101", "西宁", "101150101", "西安", "101110101", "郑州", "101180101", "济南","101120101", "太原", "101100101", "合肥", "101220101", "长沙", "101250101", "武汉", "101200101", "南京","101190101", "贵阳", "101260101", "成都", "101270101", "昆明", "101290101", "台北", "101340101", "长春","101060101", "沈阳", "101070101", "福州", "101230101", "杭州", "101210101", "南昌", "101240101", "广州","101280101", "海口", "101310101", "哈尔滨", "101050101", "石家庄", "101090101", };//对应城市编码,参照 中国天气网Boolean tem=false;//判断是否为省会城市String keyword = new String();for (int i = 0; i < 46; i += 2) {if (Cities[i].equals(City)) {keyword = Cities[i + 1];tem=true;break;}}if (!tem) {System.out.println("查无此城!");return;}String url = "http://www.weather.com.cn/weather/" + keyword + ".shtml";Document document = Jsoup.parse(new URL(url), 3000);// 天气获取Element element = document.getElementById("7d");Elements elements = element.getElementsByTag("li");for (Element el : elements) {Elements date = el.getElementsByTag("h1");String Date = City + ":" + date;String weather = el.getElementsByClass("wea").eq(0).text();String temperature = el.getElementsByClass("tem").eq(0).text();String Weather = Date + weather + temperature;if (Weather.length() > 5)System.out.println(Weather);}}
}
Java Jsoup库 实现天气爬取(附第三方库加载方式)相关推荐
- python 异步加载图片_Python 爬取拉钩网异步加载页面
如下是我简单的获取拉钩网异步加载页面信息的过程 获取的是深圳 Python 岗位的所有信息,并保存在Mongo中 (对于异步加载,有的人说是把你要爬页面的信息整个页面先爬下来,保存本地,然后再看有没有 ...
- python爬取学校题库_pyhton 网络爬取软考题库保持txt
#-*-coding:utf-8-*- #参考文档 #https://www.crummy.com/software/beautifulsoup/bs4/doc/index.zh.html#find- ...
- python 爬虫 快看漫画整站爬取(解决动态加载漫画图片地址、漫画图片合成长图、图片文件排序等问题)
运行结果: 这个是爬取的目标 爬取之后建立文件夹,合成长图之后删除文件夹 这里仅仅做几组演示, 由于合成的图片有单列长度限制,所有拆分成两列 开始: 首先打开网站,找到某个漫画,发现点鼠标右键不可以, ...
- 爬取通过ajax动态加载的页面(实时监控华尔街见闻资讯与快讯)
学习了几天如何使用scrapy去爬取静态网站,今天尝试去爬取动态加载的网站.选取的网站是华尔街见闻,文中不会像往常一样大篇幅讲解每一步该如何做,而是探讨如何爬取. 在源代码中无法获得全部数据(有的根本 ...
- python3 爬虫日记(三) 爬取堆糖动态加载网页
1.分析:进入堆糖网后我们在分类找到插画绘画进入这个分类后发现好多图片,下拉后发现会有不断的图片刷新出来,这就是堆糖采用了动态加载网页. 2.用开发者工具(F12)分析:按一下F12,找到networ ...
- Java爬虫爬取网易汽车车型库
本文地址:http://blog.csdn.net/shanglianlm/article/details/70188385 最近由于工作需要,写了一个小的爬虫,主要用于爬取网易汽车车型库(http: ...
- java 使用webmagic 爬虫框架爬取博客园数据
java 使用webmagic 爬虫框架爬取博客园数据存入数据库 学习记录 webmagic简介: WebMagic是一个简单灵活的Java爬虫框架.你可以快速开发出一个高效.易维护的爬虫. ht ...
- 教你如何使用Java代码从网页中爬取数据到数据库中——网络爬虫精华篇
文章目录 1:网络爬虫介绍 2:HttpClients类介绍 2.1 HttpGet参数问题 2.2 HttpPost参数问题 2.3 连接池技术问题 3:Jsoup介绍 4:动手实践如何抓取网页上数 ...
- python每隔一段时间保存网页内容_利用Python轻松爬取网页题库答案!教孩子不怕尴尬了!...
大家有没有遇到这种令人尴尬的情况:"好不容易在网上找到需要的资源数据,可是不容易下载下来!"如果是通过一页一页的粘贴复制来下载,真的让人难以忍受,特别是像我这种急性子,真得会让人窒 ...
最新文章
- R语言基于随机森林进行特征选择(feature selection)
- 细谈 对象的初始化过程------内存中的实现过程?
- 动态规划最常见的习题 (最长公共子串、最长公共子序列、最短编辑距离)
- ASP.NET MVC 视图
- Nacos在双击startup.cmd启动时提示:Unable to start embedded Tomcat
- EF实体框架数据操作基类(转)
- 反射 字段_一次简单的Go反射实战经历分享
- python vimIDE环境
- net core获取客户端ip
- 微软 Windows 11 全套内置自带壁纸打包下载 - Win11 官方默认原生 4K 高清壁纸图片
- Python计算水仙花数
- e生保等待期什么意思_平安e生保等待期是90天 保险90天等待期是什么
- 基于CANdelaStudio制作CDD流程概述
- allure-report详细使用教程
- 重读《从菜鸟到测试架构师》-- 开发团队做的远不仅是开发
- openlayers 显示闪烁的图标点
- UE4-SubSystem
- 莫凡Python学习笔记 一
- 响铃:入局双11营销大战,搜狗翻译宝Pro的“新生活方式”宣言
- 使用pytorch版faster-rcnn训练自己数据集