Java爬蟲,信息抓取的實現

java思想很簡單:就是經過Java訪問的連接,而後拿到html字符串,而後就是解析連接等須要的數據。javascript

技術上使用Jsoup方便頁面的解析,固然Jsoup很方便,也很簡單,一行代碼就能知道怎麼用了:html

1  Document doc = Jsoup.connect("http://www.oschina.net/") 
2   .data("query", "Java")   // 請求參數
3   .userAgent("I ’ m jsoup") // 設置 User-Agent 
4   .cookie("auth", "token") // 設置 cookie 
5   .timeout(3000)           // 設置鏈接超時時間
6   .post();                 // 使用 POST 方法訪問 URL 

下面介紹整個實現過程:java

 

一、分析須要解析的頁面:node

網址:http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQueryweb

先在這個頁面上作一次查詢:觀察下請求的url,參數,method等。chrome

這裏咱們使用chrome內置的開發者工具(快捷鍵F12),下面是查詢的結果:安全

咱們能夠看到url,method,以及參數。知道了如何或者查詢的URL,下面就開始代碼了,爲了重用與擴展,我定義了幾個類:cookie

一、Rule.java用於指定查詢url,method,params等網絡

  1 package com.zhy.spider.rule;
  2 
  3 /**
  4  * 規則類
  5  * 
  6  * @author zhy
  7  * 
  8  */
  9 public class Rule
 10 {
 11     /**
 12      * 連接
 13      */
 14     private String url;
 15 
 16     /**
 17      * 參數集合
 18      */
 19     private String[] params;
 20     /**
 21      * 參數對應的值
 22      */
 23     private String[] values;
 24 
 25     /**
 26      * 對返回的HTML,第一次過濾所用的標籤,請先設置type
 27      */
 28     private String resultTagName;
 29 
 30     /**
 31      * CLASS / ID / SELECTION
 32      * 設置resultTagName的類型,默認爲ID 
 33      */
 34     private int type = ID ;
 35     
 36     /**
 37      *GET / POST
 38      * 請求的類型,默認GET
 39      */
 40     private int requestMoethod = GET ; 
 41     
 42     public final static int GET = 0 ;
 43     public final static int POST = 1 ;
 44     
 45 
 46     public final static int CLASS = 0;
 47     public final static int ID = 1;
 48     public final static int SELECTION = 2;
 49 
 50     public Rule()
 51     {
 52     }
 53 
 54     
 55     public Rule(String url, String[] params, String[] values,
 56             String resultTagName, int type, int requestMoethod)
 57     {
 58         super();
 59         this.url = url;
 60         this.params = params;
 61         this.values = values;
 62         this.resultTagName = resultTagName;
 63         this.type = type;
 64         this.requestMoethod = requestMoethod;
 65     }
 66 
 67     public String getUrl()
 68     {
 69         return url;
 70     }
 71 
 72     public void setUrl(String url)
 73     {
 74         this.url = url;
 75     }
 76 
 77     public String[] getParams()
 78     {
 79         return params;
 80     }
 81 
 82     public void setParams(String[] params)
 83     {
 84         this.params = params;
 85     }
 86 
 87     public String[] getValues()
 88     {
 89         return values;
 90     }
 91 
 92     public void setValues(String[] values)
 93     {
 94         this.values = values;
 95     }
 96 
 97     public String getResultTagName()
 98     {
 99         return resultTagName;
100     }
101 
102     public void setResultTagName(String resultTagName)
103     {
104         this.resultTagName = resultTagName;
105     }
106 
107     public int getType()
108     {
109         return type;
110     }
111 
112     public void setType(int type)
113     {
114         this.type = type;
115     }
116 
117     public int getRequestMoethod()
118     {
119         return requestMoethod;
120     }
121 
122     public void setRequestMoethod(int requestMoethod)
123     {
124         this.requestMoethod = requestMoethod;
125     }
126 
127 }

簡單說一下:這個規則類定義了咱們查詢過程當中須要的全部信息,方便咱們的擴展,以及代碼的重用,咱們不可能針對每一個須要抓取的網站寫一套代碼。ide


二、須要的數據對象,目前只須要連接,LinkTypeData.java

 1 package com.zhy.spider.bean;
 2 
 3 public class LinkTypeData
 4 {
 5     private int id;
 6     /**
 7      * 連接的地址
 8      */
 9     private String linkHref;
10     /**
11      * 連接的標題
12      */
13     private String linkText;
14     /**
15      * 摘要
16      */
17     private String summary;
18     /**
19      * 內容
20      */
21     private String content;
22     public int getId()
23     {
24         return id;
25     }
26     public void setId(int id)
27     {
28         this.id = id;
29     }
30     public String getLinkHref()
31     {
32         return linkHref;
33     }
34     public void setLinkHref(String linkHref)
35     {
36         this.linkHref = linkHref;
37     }
38     public String getLinkText()
39     {
40         return linkText;
41     }
42     public void setLinkText(String linkText)
43     {
44         this.linkText = linkText;
45     }
46     public String getSummary()
47     {
48         return summary;
49     }
50     public void setSummary(String summary)
51     {
52         this.summary = summary;
53     }
54     public String getContent()
55     {
56         return content;
57     }
58     public void setContent(String content)
59     {
60         this.content = content;
61     }
62 }

三、核心的查詢類:ExtractService.java

package com.zhy.spider.core;

import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.Map;

import javax.swing.plaf.TextUI;

import org.jsoup.Connection;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

import com.zhy.spider.bean.LinkTypeData;
import com.zhy.spider.rule.Rule;
import com.zhy.spider.rule.RuleException;
import com.zhy.spider.util.TextUtil;

/**
 * 
 * @author zhy
 * 
 */
public class ExtractService
{
    /**
     * @param rule
     * @return
     */
    public static List<LinkTypeData> extract(Rule rule)
    {

        // 進行對rule的必要校驗
        validateRule(rule);

        List<LinkTypeData> datas = new ArrayList<LinkTypeData>();
        LinkTypeData data = null;
        try
        {
            /**
             * 解析rule
             */
            String url = rule.getUrl();
            String[] params = rule.getParams();
            String[] values = rule.getValues();
            String resultTagName = rule.getResultTagName();
            int type = rule.getType();
            int requestType = rule.getRequestMoethod();

            Connection conn = Jsoup.connect(url);
            // 設置查詢參數

            if (params != null)
            {
                for (int i = 0; i < params.length; i++)
                {
                    conn.data(params[i], values[i]);
                }
            }

            // 設置請求類型
            Document doc = null;
            switch (requestType)
            {
            case Rule.GET:
                doc = conn.timeout(100000).get();
                break;
            case Rule.POST:
                doc = conn.timeout(100000).post();
                break;
            }

            //處理返回數據
            Elements results = new Elements();
            switch (type)
            {
            case Rule.CLASS:
                results = doc.getElementsByClass(resultTagName);
                break;
            case Rule.ID:
                Element result = doc.getElementById(resultTagName);
                results.add(result);
                break;
            case Rule.SELECTION:
                results = doc.select(resultTagName);
                break;
            default:
                //當resultTagName爲空時默認去body標籤
                if (TextUtil.isEmpty(resultTagName))
                {
                    results = doc.getElementsByTag("body");
                }
            }

            for (Element result : results)
            {
                Elements links = result.getElementsByTag("a");

                for (Element link : links)
                {
                    //必要的篩選
                    String linkHref = link.attr("href");
                    String linkText = link.text();

                    data = new LinkTypeData();
                    data.setLinkHref(linkHref);
                    data.setLinkText(linkText);

                    datas.add(data);
                }
            }

        } catch (IOException e)
        {
            e.printStackTrace();
        }

        return datas;
    }

    /**
     * 對傳入的參數進行必要的校驗
     */
    private static void validateRule(Rule rule)
    {
        String url = rule.getUrl();
        if (TextUtil.isEmpty(url))
        {
            throw new RuleException("url不能爲空!");
        }
        if (!url.startsWith("http://"))
        {
            throw new RuleException("url的格式不正確!");
        }

        if (rule.getParams() != null && rule.getValues() != null)
        {
            if (rule.getParams().length != rule.getValues().length)
            {
                throw new RuleException("參數的鍵值對個數不匹配!");
            }
        }

    }


}

四、裏面用了一個異常類:RuleException.java

package com.zhy.spider.rule;

public class RuleException extends RuntimeException
{

    public RuleException()
    {
        super();
        // TODO Auto-generated constructor stub
    }

    public RuleException(String message, Throwable cause)
    {
        super(message, cause);
        // TODO Auto-generated constructor stub
    }

    public RuleException(String message)
    {
        super(message);
        // TODO Auto-generated constructor stub
    }

    public RuleException(Throwable cause)
    {
        super(cause);
        // TODO Auto-generated constructor stub
    }

}

五、最後是測試了:這裏使用了兩個網站進行測試,採用了不一樣的規則,具體看代碼吧

 1 package com.zhy.spider.test;
 2 
 3 import java.util.List;
 4 
 5 import com.zhy.spider.bean.LinkTypeData;
 6 import com.zhy.spider.core.ExtractService;
 7 import com.zhy.spider.rule.Rule;
 8 
 9 public class Test
10 {
11     @org.junit.Test
12     public void getDatasByClass()
13     {
14         Rule rule = new Rule(
15                 "http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQuery",
16         new String[] { "query.enterprisename","query.registationnumber" }, new String[] { "興網","" },
17                 "cont_right", Rule.CLASS, Rule.POST);
18         List<LinkTypeData> extracts = ExtractService.extract(rule);
19         printf(extracts);
20     }
21 
22     @org.junit.Test
23     public void getDatasByCssQuery()
24     {
25         Rule rule = new Rule("http://www.11315.com/search",
26                 new String[] { "name" }, new String[] { "興網" },
27                 "div.g-mn div.con-model", Rule.SELECTION, Rule.GET);
28         List<LinkTypeData> extracts = ExtractService.extract(rule);
29         printf(extracts);
30     }
31 
32     public void printf(List<LinkTypeData> datas)
33     {
34         for (LinkTypeData data : datas)
35         {
36             System.out.println(data.getLinkText());
37             System.out.println(data.getLinkHref());
38             System.out.println("***********************************");
39         }
40 
41     }
42 }

輸出結果:

 1 深圳市網興科技有限公司
 2 http://14603257.11315.com
 3 ***********************************
 4 荊州市興網公路物資有限公司
 5 http://05155980.11315.com
 6 ***********************************
 7 西安市全興網吧
 8 #
 9 ***********************************
10 子長縣新興網城
11 #
12 ***********************************
13 陝西同興網絡信息有限責任公司第三分公司
14 #
15 ***********************************
16 西安高興網絡科技有限公司
17 #
18 ***********************************
19 陝西同興網絡信息有限責任公司西安分公司
20 #
21 ***********************************

最後使用一個Baidu新聞來測試咱們的代碼:說明咱們的代碼是通用的。

 1          /**
 2      * 使用百度新聞,只設置url和關鍵字與返回類型
 3      */
 4     @org.junit.Test
 5     public void getDatasByCssQueryUserBaidu()
 6     {
 7         Rule rule = new Rule("http://news.baidu.com/ns",
 8                 new String[] { "word" }, new String[] { "支付寶" },
 9                 null, -1, Rule.GET);
10         List<LinkTypeData> extracts = ExtractService.extract(rule);
11         printf(extracts);
12     }

咱們只設置了連接、關鍵字、和請求類型,不設置具體的篩選條件。

 

結果:有必定的垃圾數據是確定的,可是須要的數據確定也抓取出來了。咱們能夠設置Rule.SECTION,以及篩選條件進一步的限制。

 1 按時間排序
 2 /ns?word=支付寶&ie=utf-8&bs=支付寶&sr=0&cl=2&rn=20&tn=news&ct=0&clk=sortbytime
 3 ***********************************
 4 x
 5 javascript:void(0)
 6 ***********************************
 7 支付寶將聯合多方共建安全基金 首批投入4000萬
 8 http://finance.ifeng.com/a/20140409/12081871_0.shtml
 9 ***********************************
10 7條相同新聞
11 /ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:2465146414%7C697779368%7C3832159921&same=7&cl=1&tn=news&rn=30&fm=sd
12 ***********************************
13 百度快照
14 http://cache.baidu.com/c?m=9d78d513d9d437ab4f9e91697d1cc0161d4381132ba7d3020cd0870fd33a541b0120a1ac26510d19879e20345dfe1e4bea876d26605f75a09bbfd91782a6c1352f8a2432721a844a0fd019adc1452fc423875d9dad0ee7cdb168d5f18c&p=c96ec64ad48b2def49bd9b780b64&newp=c4769a4790934ea95ea28e281c4092695912c10e3dd796&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=1
15 ***********************************
16 OpenSSL漏洞涉及衆多網站 支付寶稱暫無數據泄露
17 http://tech.ifeng.com/internet/detail_2014_04/09/35590390_0.shtml
18 ***********************************
19 26條相同新聞
20 /ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:3869124100&same=26&cl=1&tn=news&rn=30&fm=sd
21 ***********************************
22 百度快照
23 http://cache.baidu.com/c?m=9f65cb4a8c8507ed4fece7631050803743438014678387492ac3933fc239045c1c3aa5ec677e4742ce932b2152f4174bed843670340537b0efca8e57dfb08f29288f2c367117845615a71bb8cb31649b66cf04fdea44a7ecff25e5aac5a0da4323c044757e97f1fb4d7017dd1cf4&p=8b2a970d95df11a05aa4c32013&newp=9e39c64ad4dd50fa40bd9b7c5253d8304503c52251d5ce042acc&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=2
24 ***********************************
25 雅虎日本6月起開始支持支付寶付款
26 http://www.techweb.com.cn/ucweb/news/id/2025843
27 ***********************************
相關文章
相關標籤/搜索