头条资讯 - 为您提供最新最全的新闻资讯,每日实时更新

用 Java 拿下 HTML,分分钟写个小爬虫!

科技数码 CSDN

用 Java 拿下 HTML,分分钟写个小爬虫!

作者 | HelloGitHub-秦人

来源 | HelloGitHub(ID:GitHub520)

HelloGitHub 推出的《讲解开源项目》系列,今天给大家带来一款开源 Java 版一款网页元素解析框架——jsoup,通过程序自动获取网页数据。

项目源码地址:https://github.com/jhy/jsoup

项目介绍

jsoup 是一款 Java 的 HTML 解析器。可直接解析某个 URL 地址的 HTML 文本内容。它提供了一套很省力的 API,可通过 DOM、CSS 以及类似于 jQuery 选择器的操作方法来取出和操作数据。

jsoup 主要功能:

从一个 URL、文件或字符串中解析 HTML。

使用 DOM 或 CSS 选择器来查找、取出数据。

可操作 HTML 元素、属性、文本。

使用框架

2.1 准备工作

掌握 HTML 语法

Chrome 浏览器调试技巧

掌握开发工具 idea 的基本操作

2.2 学习源码

将项目导入 idea 开发工具,会自动下载 maven 项目需要的依赖。源码的项目结构如下:

用 Java 拿下 HTML,分分钟写个小爬虫!

快速学习源码是每个程序员必备的技能,我总结了以下几点:

阅读项目 ReadMe 文件,可以快速知道项目是做什么的。

概览项目 pom.xml 文件,了解项目引用了哪些依赖。

查看项目结构、源码目录、测试用例目录,好的项目结构清晰,层次明确。

运行测试用例,快速体验项目。

2.3 下载项目

git clone https://github.com/jhy/jsoup

2.4 运行项目测试代码

通过上面的方法,我们很快可知 example 目录是测试代码,那我们直接来运行。注:有些测试代码需要稍微改造一下才可以运行。

例如,jsoup 的 Wikipedia 测试代码:

public class Wikipedia {

public static void main(String[] args) throws IOException {

Document doc = Jsoup.connect("http://en.wikipedia.org/").get();

log(doc.title());

Elements newsHeadlines = doc.select("#mp-itn b a");

for (Element headline : newsHeadlines) {

log("%s\n\t%s", headline.attr("title"), headline.absUrl("href"));

}

}

private static void log(String msg, String... vals) {

System.out.println(String.format(msg, vals));

}

}

改造后可运行的代码如下:

public static void main(String[] args) throws IOException {

Document doc = Jsoup.connect("https://www.baidu.com/").get();

Elements newsHeadlines = doc.select("a[href]");

for (Element headline : newsHeadlines) {

System.out.println("href: " +headline.absUrl("href") );

}

}

工作原理

Jsoup 的工作原理,首先需要指定一个 URL,框架发送 HTTP 请求,然后获取响应页面内容,然后通过各种选择器获取页面数据。整个工作流程如下图:

用 Java 拿下 HTML,分分钟写个小爬虫!

以上面为例:

3.1 发请求

Document doc = Jsoup.connect("https://www.baidu.com/").get();

这行代码就是发送 HTTP 请求,并获取页面响应数据。

3.2 数据筛选

Elements newsHeadlines = doc.select("a[href]");

定义选择器,获取匹配选择器的数据。

3.3 数据处理

这里对数据只做了一个简单的数据打印,当然这些数据可写入文件或数据的。

实战

获取豆瓣读书 -> 新书速递中每本新书的基本信息。包括:书名、书图片链接、作者、内容简介(详情页面)、作者简介(详情页面)、当当网书的价格(详情页面),最后将获取的数据保存到 Excel 文件。

目标链接:https://book.douban.com/latest?icn=index-latestbook-all

4.1 项目 pom.xml 文件

项目引入 jsoup、lombok、easyexcel 三个库。

xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"

xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">

4.0.0

org.example

JsoupTest

1.0-SNAPSHOT

1.8

1.8

org.jsoup

jsoup

1.13.1

org.projectlombok

lombok

1.18.12

com.alibaba

easyexcel

2.2.6

4.2 解析页面数据

public class BookInfoUtils {

public static List getBookInfoList(String url) throws IOException {

List  bookEntities=new ArrayList();

Document doc = Jsoup.connect(url).get();

Elements liDiv = doc.select("#content > div > div.article > ul > li");

for (Element li : liDiv) {

Elements urls = li.select("a[href]");

Elements imgUrl = li.select("a > img");

Elements bookName = li.select(" div > h2 > a");

Elements starsCount = li.select(" div > p.rating > span.font-small.color-lightgray");

Elements author = li.select("div > p.color-gray");

Elements description = li.select(" div > p.detail");

String bookDetailUrl = urls.get().attr("href");

BookDetailInfo detailInfo = getDetailInfo(bookDetailUrl);

BookEntity bookEntity = BookEntity.builder()

.detailPageUrl(bookDetailUrl)

.bookImgUrl(imgUrl.attr("src"))

.bookName(bookName.html())

.starsCount(starsCount.html())

.author(author.text())

.bookDetailInfo(detailInfo)

.description(description.html())

.build();

//            System.out.println(bookEntity);

bookEntities.add(bookEntity);

}

return bookEntities;

}

/**

*

* @param detailUrl

* @return

* @throws IOException

*/

public static BookDetailInfo getDetailInfo(String detailUrl)throws IOException{

Document doc = Jsoup.connect(detailUrl).get();

Elements content = doc.select("body");

Elements price = content.select("#buyinfo-printed > ul.bs.current-version-list > li:nth-child(2) > div.cell.price-btn-wrapper > div.cell.impression_track_mod_buyinfo > div.cell.price-wrapper > a > span");

Elements author = content.select("#info > span:nth-child(1) > a");

BookDetailInfo bookDetailInfo = BookDetailInfo.builder()

.author(author.html())

.authorUrl(author.attr("href"))

.price(price.html())

.build();

return bookDetailInfo;

}

}

这里的重点是要获取网页对应元素的选择器。

例如:获取 li.select("div > p.color-gray") 中 div > p.color-gray 是怎么知道的。

使用 chrome 的小伙伴应该都猜到了。打开 chrome 浏览器 Debug 模式,Ctrl + Shift +C 选择一个元素,然后在 html 右键选择 Copy ->Copy selector,这样就可以获取当前元素的选择器。如下图:

用 Java 拿下 HTML,分分钟写个小爬虫!

4.3 存储数据到 Excel

为了数据更好查看,我将通过 jsoup 抓取的数据存储的 Excel 文件,这里我使用的 easyexcel 快速生成 Excel 文件。

Excel 表头信息

@Data

@Builder

public class ColumnData {

@ExcelProperty("书名称")

private String bookName;

@ExcelProperty("评分")

private String starsCount;

@ExcelProperty("作者")

private String author;

@ExcelProperty("封面图片")

private String bookImgUrl;

@ExcelProperty("简介")

private String description;

@ExcelProperty("单价")

private String price;

}

生成 Excel 文件

public class EasyExcelUtils {

public static void simpleWrite(List bookEntityList) {

String fileName = "D:\\devEnv\\JsoupTest\\bookList" + System.currentTimeMillis() + ".xlsx";

EasyExcel.write(fileName, ColumnData.class).sheet("书本详情").doWrite(data(bookEntityList));

System.out.println("excel文件生成完毕...");

}

private static List data(List bookEntityList) {

List list = new ArrayList();

bookEntityList.forEach(b -> {

ColumnData data = ColumnData.builder()

.bookName(b.getBookName())

.starsCount(b.getStarsCount())

.author(b.getBookDetailInfo().getAuthor())

.bookImgUrl(b.getBookImgUrl())

.description(b.getDescription())

.price(b.getBookDetailInfo().getPrice())

.build();

list.add(data);

});

return list;

}

}

4.4 最终展示效果

最终的效果如下图:

用 Java 拿下 HTML,分分钟写个小爬虫!

以上就是从想法到实践,我们就在实战中使用了 jsoup 的基本操作。

完整代码地址:https://github.com/hellowHuaairen/JsoupTest

最后

Java HTML Parser 库:jsoup,把它当成简单的爬虫用起来还是很方便的吧?

为什么会讲爬虫?大数据,人工智能时代玩的就是数据,数据很重要。作为懂点技术的我们,也需要掌握一种获取网络数据的技能。当然也有一些工具 Fiddler、webscraper 等也可以抓取你想要的数据。

教程至此,你应该也能对 jsoup 有一些感觉了吧。编程是不是也特别有意思呢?参考我上面的实战案例,有好多网站可以实践一下啦~

用 Java 拿下 HTML,分分钟写个小爬虫!

转载请超链接注明:头条资讯 » 用 Java 拿下 HTML,分分钟写个小爬虫!
免责声明
    :非本网注明原创的信息,皆为程序自动获取互联网,目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责;如此页面有侵犯到您的权益,请给站长发送邮件,并提供相关证明(版权证明、身份证正反面、侵权链接),站长将在收到邮件24小时内删除。
加载中...