现在的位置: 首页 > 综合 > 正文

jsoup选择器来抓取网页中的数据

2018年04月05日 ⁄ 综合 ⁄ 共 5396字 ⁄ 字号 评论关闭

JSOUP是一个没有界面的浏览器,用于分析和抓取网络html数据

使用他需要相关jar包,下载链接:http://pan.baidu.com/s/1sjuLGC1

例子:抓取http://www.ifanr.com/网页中指定规则新闻链接和标题

1.找到关键字<div class="entry-header">层下面的子标签<span>的属性数据就是想要的

try {
			Document doc = Jsoup.connect("http://www.ifanr.com/").get();
			
			Elements links = doc.select("div.entry-header");
			for (Element e : links) {
				Elements elements = e.select("span.number").select("a[href]");
				for (Element element : elements) {
					element.attr("href");
					element.attr("title").replace("Comment on ", "");
					getNewsDate(element.attr("href"));
				}
			}
		} catch (Exception e) {
			e.printStackTrace();
		}

2.抓取一个网页数据还不够,还需要该网站分页的数据,那就需要知道该网站有多少页数,这里是选择器

  • [attr=value]:带有属性值的元素,例如[width=500]   用法

	<span style="white-space:pre">	</span>String html = null;
		int total = 0;
		Document doc = Jsoup.connect("http://www.ifanr.com/").get();

				Elements links = doc.select("div.content-nav");
		for (Element e : links) {
			for(Element ent :e.select("[title=跳转到最后一页]")){
				html = ent.attr("href");
				break;
			}
		}

		if(html!=null&&html.length()>0){
			int index = html.indexOf("http://www.ifanr.com/page/");
			if(index!=-1&&index<html.length()){
				try {
					total = Integer.parseInt(html.substring(index,html.length()));
				} catch (NumberFormatException e1) {
					total = 822;
				}
			}
		}

3.相关选择器API介绍

问题

采用CSS或类似jquery 选择器(selector)语法来处理HTML文档中的数据。

方法

利用方法:Element.select(String
selector)
Elements.select(String
selector)

File input = new File("/tmp/input.html");
Document doc = Jsoup.parse(input, "UTF-8", "http://example.com/");
Elements links = doc.select("a[href]"); // a with href
Elements pngs = doc.select("img[src$=.png]");  // img with src ending .png
Element masthead = doc.select("div.masthead").first();
  // div with class=masthead
Elements resultLinks = doc.select("h3.r > a"); // direct a after h3

描述

Jsoup的元素支持类似CSS或(jquery)的选择器语法的查找匹配的元素,可实现功能强大且鲁棒性好的查询。

jsoup elements support a CSS(or jquery)
like selector syntax to find matching elements, that allows very powerful and robust queries.

Select方法可作用于DocumentElementElements,且是上下文相关的,因此可实现指定元素的过滤,或者链式选择访问。

The selectmethod is available in a DocumentElement,
or in Elements. It is contextual, so you
can filter by selecting from a specific element, or by chaining select calls.

选择(操作)返回元素列表(Elements),并提供一组方法来提取或处理结果。

Select returns a list of Elements (as Elements),
which provides a range of methods to extract and manipulate the results.

选择器概要(Selector overview)

  • Tagname:通过标签查找元素(例如:a)
  • ns|tag:通过标签在命名空间查找元素,例如:fb|name查找<fb:name>元素
  • #id:通过ID查找元素,例如#logo
  • .class:通过类型名称查找元素,例如.masthead
  • [attribute]:带有属性的元素,例如[href]
  • [^attr]:带有名称前缀的元素,例如[^data-]查找HTML5带有数据集(dataset)属性的元素
  • [attr=value]:带有属性值的元素,例如[width=500]
  • [attr^=value],[attr$=value],[attr*=value]:包含属性且其值以value开头、结尾或包含value的元素,例如[href*=/path/]
  • [attr~=regex]:属性值满足正则表达式的元素,例如img[src~=(?i)\.(png|jpe?g)]
  • *:所有元素,例如*

选择器组合方法

  • el#id::带有ID的元素ID,例如div#logo
  • el.class:带类型的元素,例如. div.masthead
  • el[attr]:包含属性的元素,例如a[href]
  • 任意组合:例如a[href].highlight
  • ancestor child:继承自某祖(父)元素的子元素,例如.body p查找“body”块下的p元素
  • parent > child:直接为父元素后代的子元素,例如: div.content > pf查找p元素,body > * 查找body元素的直系子元素
  • siblingA + siblingB:查找由同级元素A前导的同级元素,例如div.head + div
  • siblingA ~ siblingX:查找同级元素A前导的同级元素X例如h1 ~ p
  • el, el, el:多个选择器组合,查找匹配任一选择器的唯一元素,例如div.masthead, div.logo

伪选择器(Pseudo selectors)

  • :lt(n):查找索引值(即DOM树中相对于其父元素的位置)小于n的同级元素,例如td:lt(3)
  • :gt(n):查找查找索引值大于n的同级元素,例如div p:gt(2)
  • :eq(n) :查找索引值等于n的同级元素,例如form input:eq(1)
  • :has(seletor):查找匹配选择器包含元素的元素,例如div:has(p)
  • :not(selector):查找不匹配选择器的元素,例如div:not(.logo)
  • :contains(text):查找包含给定文本的元素,大小写铭感,例如p:contains(jsoup)
  • :containsOwn(text):查找直接包含给定文本的元素
  • :matches(regex):查找其文本匹配指定的正则表达式的元素,例如div:matches((?i)login)
  • :matchesOwn(regex):查找其自身文本匹配指定的正则表达式的元素
  • 注意:上述伪选择器是0-基数的,亦即第一个元素索引值为0,第二个元素index为1等

详见SelectorAPI 参考资料所列全部信息和细节。

【原文】http://jsoup.org/cookbook/extracting-data/selector-syntax

示例完整代码

import java.io.IOException;
import java.util.List;

import org.jsoup.Jsoup;
import org.jsoup.nodes.DataNode;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

public class Main {

	/**
	 * @param args
	 */
	public static void main(String[] args) {
		getNews("http://www.ifanr.com/");
		//p(getNewsDate("http://www.ifanr.com/462705"));
	}
	
	static int currentPage = 0;
	static String pageUrl = "http://www.ifanr.com/page/";
	static int totalPage = -1;
	public static void getNews(String url){
		currentPage++;
		try {
			Document doc = Jsoup.connect(url).get();
			
			if(totalPage==-1){
				totalPage = getTotalPageNo(doc);
			}
			
			Elements links = doc.select("div.entry-header");
			int index = 0;
			for (Element e : links) {
				Elements elements = e.select("span.number").select("a[href]");
				for (Element element : elements) {
					p(element.attr("href"));
					p(element.attr("title").replace("Comment on ", ""));
					p(getNewsDate(element.attr("href")));
				}
				index++;
			}
			while(currentPage<totalPage){
				getNews(pageUrl+currentPage);
			}
		} catch (Exception e) {
			e.printStackTrace();
		}
	}
	
	/**
	 * 获取www.ifanr.com的新闻总页数http://www.ifanr.com/page/2
	 * @param doc
	 * @return
	 */
	public static int getTotalPageNo(Document doc){
		String html = null;
		int total = 822;
		Elements links = doc.select("div.content-nav");
		for (Element e : links) {
			for(Element ent :e.select("[title=跳转到最后一页]")){
				html = ent.attr("href");
				break;
			}
		}

		if(html!=null&&html.length()>0){
			int index = html.indexOf("http://www.ifanr.com/page/");
			if(index!=-1&&index<html.length()){
				try {
					total = Integer.parseInt(html.substring(index,html.length()));
				} catch (NumberFormatException e1) {
					total = 822;
				}
			}
		}
		return total;
	}

	/**
	 * 获取新闻发布时间
	 * 20141023184715
	 * @param url
	 * @return
	 */
	public static long getNewsDate(String url){
		String dateStr = null;
		long date = 0;
		try {
			Document doc = Jsoup.connect(url).get();
			Elements links =  doc.select("meta").select("[name=weibo: article:create_at]");
			for (Element e : links) {
				dateStr = e.attr("content").replace("-", "").replace(" ", "").replace(":", "");
			}
		} catch (IOException e) {
			e.printStackTrace();
		}
		
		if(dateStr!=null){
			date = Long.parseLong(dateStr);
		}
		return date;
	}
	
	public static void p(Object o) {
		System.out.println(o);
	}
}

抱歉!评论已关闭.