最近一直在公司利用爬虫技术,去抓取一些网页查询网站备案信息,刚开始使用HttpClient 和 jericho (这两个也挺好用你可以去测试一下)。但是后来发现了Jsoup,他和Jquery很相似,在搜节点上使用的技术几乎相似。所以凡是使用过Jquery的都可以去尝试使用Jsoup去解析抓取数据。下面举个例子我们去抓去所有公交车的信息(哥是郑州的哈)。
在解析之前你需要jar包,你可以去http://jsoup.org/直接下载。如果使用maven更方便 只需引进依赖 例如
<dependency>
<groupId>org.jsoup</groupId>
<artifactId>jsoup</artifactId>
<version>1.7.3</version>
</dependency>
好了下面进入正题,我将用一个实例来证明怎么去连接网站,抓取,最后解析的过程:
package parserhtml;
import java.io.IOException;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.select.Elements;
public class ParserCarHtml {
static String url = "http://218.28.136.21:8081/line.asp";//公交website
public static Document getHtml(String domain){
Document html = null;
try {
//与网站建立连接,并拿到页面。(注意这里?号一定要加上,这也是抓取页面的过程,如果在浏览器中没有?,不用写,这点你可以参考浏览器是怎么解析的,然后试图模 //仿,不过今年来有些人用于非法解析,所以有些网站防爬虫,但是不用怕,在Jsoup中Connection中提供了一系列,添加Cookie,和一些请求参数的方法,这点你可以把 // 浏览器中的参数以key - value的形式copy进去 ,那么你的程序将模拟一个浏览器例如:
// Jsoup.connect(url+"?xl="+domain).data("", "").cookie("", "").get(); 这里面填写的分别是浏览器中的信息,你可以鼠标右键,审查元素,然后可以找到相应信息。*/
html = Jsoup.connect(url+"?xl="+domain).get();
} catch (IOException e) {
e.printStackTrace();
}
return html;
}
public static String PaserHtml(Document html){
Elements node = html.select("a");//进行你需要的选择元素。我的这个解析网站比较简单。你可以利用Jsoup中提供的方法去获取一些需要的元素。
String html1 = node.toString();
String html2 = html1.replaceAll("\\p{Punct}", "").replaceAll("[a-zA-Z]", "").replaceAll("\\p{Digit}", "");//利用正则表达式去解析网站
return html2;
}
public static void main(String[] args) {
getHtml("904");//这里的904是我随便输入的公交车路线。
PaserHtml(getHtml("904"));
System.out.println(PaserHtml(getHtml("904")));
}
}
运行程序输入你想要查询的站点,便可以得到你想要的数据,如下图:
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有