java思想很簡單:就是經過Java訪問的連接,而後拿到html字符串,而後就是解析連接等須要的數據。javascript
技術上使用Jsoup方便頁面的解析,固然Jsoup很方便,也很簡單,一行代碼就能知道怎麼用了:html
1 Document doc = Jsoup.connect("http://www.oschina.net/") 2 .data("query", "Java") // 請求參數 3 .userAgent("I ’ m jsoup") // 設置 User-Agent 4 .cookie("auth", "token") // 設置 cookie 5 .timeout(3000) // 設置鏈接超時時間 6 .post(); // 使用 POST 方法訪問 URL
下面介紹整個實現過程:java
一、分析須要解析的頁面:node
網址:http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQueryweb
先在這個頁面上作一次查詢:觀察下請求的url,參數,method等。chrome
這裏咱們使用chrome內置的開發者工具(快捷鍵F12),下面是查詢的結果:安全
咱們能夠看到url,method,以及參數。知道了如何或者查詢的URL,下面就開始代碼了,爲了重用與擴展,我定義了幾個類:cookie
一、Rule.java用於指定查詢url,method,params等網絡
1 package com.zhy.spider.rule; 2 3 /** 4 * 規則類 5 * 6 * @author zhy 7 * 8 */ 9 public class Rule 10 { 11 /** 12 * 連接 13 */ 14 private String url; 15 16 /** 17 * 參數集合 18 */ 19 private String[] params; 20 /** 21 * 參數對應的值 22 */ 23 private String[] values; 24 25 /** 26 * 對返回的HTML,第一次過濾所用的標籤,請先設置type 27 */ 28 private String resultTagName; 29 30 /** 31 * CLASS / ID / SELECTION 32 * 設置resultTagName的類型,默認爲ID 33 */ 34 private int type = ID ; 35 36 /** 37 *GET / POST 38 * 請求的類型,默認GET 39 */ 40 private int requestMoethod = GET ; 41 42 public final static int GET = 0 ; 43 public final static int POST = 1 ; 44 45 46 public final static int CLASS = 0; 47 public final static int ID = 1; 48 public final static int SELECTION = 2; 49 50 public Rule() 51 { 52 } 53 54 55 public Rule(String url, String[] params, String[] values, 56 String resultTagName, int type, int requestMoethod) 57 { 58 super(); 59 this.url = url; 60 this.params = params; 61 this.values = values; 62 this.resultTagName = resultTagName; 63 this.type = type; 64 this.requestMoethod = requestMoethod; 65 } 66 67 public String getUrl() 68 { 69 return url; 70 } 71 72 public void setUrl(String url) 73 { 74 this.url = url; 75 } 76 77 public String[] getParams() 78 { 79 return params; 80 } 81 82 public void setParams(String[] params) 83 { 84 this.params = params; 85 } 86 87 public String[] getValues() 88 { 89 return values; 90 } 91 92 public void setValues(String[] values) 93 { 94 this.values = values; 95 } 96 97 public String getResultTagName() 98 { 99 return resultTagName; 100 } 101 102 public void setResultTagName(String resultTagName) 103 { 104 this.resultTagName = resultTagName; 105 } 106 107 public int getType() 108 { 109 return type; 110 } 111 112 public void setType(int type) 113 { 114 this.type = type; 115 } 116 117 public int getRequestMoethod() 118 { 119 return requestMoethod; 120 } 121 122 public void setRequestMoethod(int requestMoethod) 123 { 124 this.requestMoethod = requestMoethod; 125 } 126 127 }
簡單說一下:這個規則類定義了咱們查詢過程當中須要的全部信息,方便咱們的擴展,以及代碼的重用,咱們不可能針對每一個須要抓取的網站寫一套代碼。ide
二、須要的數據對象,目前只須要連接,LinkTypeData.java
1 package com.zhy.spider.bean; 2 3 public class LinkTypeData 4 { 5 private int id; 6 /** 7 * 連接的地址 8 */ 9 private String linkHref; 10 /** 11 * 連接的標題 12 */ 13 private String linkText; 14 /** 15 * 摘要 16 */ 17 private String summary; 18 /** 19 * 內容 20 */ 21 private String content; 22 public int getId() 23 { 24 return id; 25 } 26 public void setId(int id) 27 { 28 this.id = id; 29 } 30 public String getLinkHref() 31 { 32 return linkHref; 33 } 34 public void setLinkHref(String linkHref) 35 { 36 this.linkHref = linkHref; 37 } 38 public String getLinkText() 39 { 40 return linkText; 41 } 42 public void setLinkText(String linkText) 43 { 44 this.linkText = linkText; 45 } 46 public String getSummary() 47 { 48 return summary; 49 } 50 public void setSummary(String summary) 51 { 52 this.summary = summary; 53 } 54 public String getContent() 55 { 56 return content; 57 } 58 public void setContent(String content) 59 { 60 this.content = content; 61 } 62 }
三、核心的查詢類:ExtractService.java
package com.zhy.spider.core; import java.io.IOException; import java.util.ArrayList; import java.util.List; import java.util.Map; import javax.swing.plaf.TextUI; import org.jsoup.Connection; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; import com.zhy.spider.bean.LinkTypeData; import com.zhy.spider.rule.Rule; import com.zhy.spider.rule.RuleException; import com.zhy.spider.util.TextUtil; /** * * @author zhy * */ public class ExtractService { /** * @param rule * @return */ public static List<LinkTypeData> extract(Rule rule) { // 進行對rule的必要校驗 validateRule(rule); List<LinkTypeData> datas = new ArrayList<LinkTypeData>(); LinkTypeData data = null; try { /** * 解析rule */ String url = rule.getUrl(); String[] params = rule.getParams(); String[] values = rule.getValues(); String resultTagName = rule.getResultTagName(); int type = rule.getType(); int requestType = rule.getRequestMoethod(); Connection conn = Jsoup.connect(url); // 設置查詢參數 if (params != null) { for (int i = 0; i < params.length; i++) { conn.data(params[i], values[i]); } } // 設置請求類型 Document doc = null; switch (requestType) { case Rule.GET: doc = conn.timeout(100000).get(); break; case Rule.POST: doc = conn.timeout(100000).post(); break; } //處理返回數據 Elements results = new Elements(); switch (type) { case Rule.CLASS: results = doc.getElementsByClass(resultTagName); break; case Rule.ID: Element result = doc.getElementById(resultTagName); results.add(result); break; case Rule.SELECTION: results = doc.select(resultTagName); break; default: //當resultTagName爲空時默認去body標籤 if (TextUtil.isEmpty(resultTagName)) { results = doc.getElementsByTag("body"); } } for (Element result : results) { Elements links = result.getElementsByTag("a"); for (Element link : links) { //必要的篩選 String linkHref = link.attr("href"); String linkText = link.text(); data = new LinkTypeData(); data.setLinkHref(linkHref); data.setLinkText(linkText); datas.add(data); } } } catch (IOException e) { e.printStackTrace(); } return datas; } /** * 對傳入的參數進行必要的校驗 */ private static void validateRule(Rule rule) { String url = rule.getUrl(); if (TextUtil.isEmpty(url)) { throw new RuleException("url不能爲空!"); } if (!url.startsWith("http://")) { throw new RuleException("url的格式不正確!"); } if (rule.getParams() != null && rule.getValues() != null) { if (rule.getParams().length != rule.getValues().length) { throw new RuleException("參數的鍵值對個數不匹配!"); } } } }
四、裏面用了一個異常類:RuleException.java
package com.zhy.spider.rule; public class RuleException extends RuntimeException { public RuleException() { super(); // TODO Auto-generated constructor stub } public RuleException(String message, Throwable cause) { super(message, cause); // TODO Auto-generated constructor stub } public RuleException(String message) { super(message); // TODO Auto-generated constructor stub } public RuleException(Throwable cause) { super(cause); // TODO Auto-generated constructor stub } }
五、最後是測試了:這裏使用了兩個網站進行測試,採用了不一樣的規則,具體看代碼吧
1 package com.zhy.spider.test; 2 3 import java.util.List; 4 5 import com.zhy.spider.bean.LinkTypeData; 6 import com.zhy.spider.core.ExtractService; 7 import com.zhy.spider.rule.Rule; 8 9 public class Test 10 { 11 @org.junit.Test 12 public void getDatasByClass() 13 { 14 Rule rule = new Rule( 15 "http://www1.sxcredit.gov.cn/public/infocomquery.do?method=publicIndexQuery", 16 new String[] { "query.enterprisename","query.registationnumber" }, new String[] { "興網","" }, 17 "cont_right", Rule.CLASS, Rule.POST); 18 List<LinkTypeData> extracts = ExtractService.extract(rule); 19 printf(extracts); 20 } 21 22 @org.junit.Test 23 public void getDatasByCssQuery() 24 { 25 Rule rule = new Rule("http://www.11315.com/search", 26 new String[] { "name" }, new String[] { "興網" }, 27 "div.g-mn div.con-model", Rule.SELECTION, Rule.GET); 28 List<LinkTypeData> extracts = ExtractService.extract(rule); 29 printf(extracts); 30 } 31 32 public void printf(List<LinkTypeData> datas) 33 { 34 for (LinkTypeData data : datas) 35 { 36 System.out.println(data.getLinkText()); 37 System.out.println(data.getLinkHref()); 38 System.out.println("***********************************"); 39 } 40 41 } 42 }
輸出結果:
1 深圳市網興科技有限公司 2 http://14603257.11315.com 3 *********************************** 4 荊州市興網公路物資有限公司 5 http://05155980.11315.com 6 *********************************** 7 西安市全興網吧 8 # 9 *********************************** 10 子長縣新興網城 11 # 12 *********************************** 13 陝西同興網絡信息有限責任公司第三分公司 14 # 15 *********************************** 16 西安高興網絡科技有限公司 17 # 18 *********************************** 19 陝西同興網絡信息有限責任公司西安分公司 20 # 21 ***********************************
最後使用一個Baidu新聞來測試咱們的代碼:說明咱們的代碼是通用的。
1 /** 2 * 使用百度新聞,只設置url和關鍵字與返回類型 3 */ 4 @org.junit.Test 5 public void getDatasByCssQueryUserBaidu() 6 { 7 Rule rule = new Rule("http://news.baidu.com/ns", 8 new String[] { "word" }, new String[] { "支付寶" }, 9 null, -1, Rule.GET); 10 List<LinkTypeData> extracts = ExtractService.extract(rule); 11 printf(extracts); 12 }
咱們只設置了連接、關鍵字、和請求類型,不設置具體的篩選條件。
結果:有必定的垃圾數據是確定的,可是須要的數據確定也抓取出來了。咱們能夠設置Rule.SECTION,以及篩選條件進一步的限制。
1 按時間排序 2 /ns?word=支付寶&ie=utf-8&bs=支付寶&sr=0&cl=2&rn=20&tn=news&ct=0&clk=sortbytime 3 *********************************** 4 x 5 javascript:void(0) 6 *********************************** 7 支付寶將聯合多方共建安全基金 首批投入4000萬 8 http://finance.ifeng.com/a/20140409/12081871_0.shtml 9 *********************************** 10 7條相同新聞 11 /ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:2465146414%7C697779368%7C3832159921&same=7&cl=1&tn=news&rn=30&fm=sd 12 *********************************** 13 百度快照 14 http://cache.baidu.com/c?m=9d78d513d9d437ab4f9e91697d1cc0161d4381132ba7d3020cd0870fd33a541b0120a1ac26510d19879e20345dfe1e4bea876d26605f75a09bbfd91782a6c1352f8a2432721a844a0fd019adc1452fc423875d9dad0ee7cdb168d5f18c&p=c96ec64ad48b2def49bd9b780b64&newp=c4769a4790934ea95ea28e281c4092695912c10e3dd796&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=1 15 *********************************** 16 OpenSSL漏洞涉及衆多網站 支付寶稱暫無數據泄露 17 http://tech.ifeng.com/internet/detail_2014_04/09/35590390_0.shtml 18 *********************************** 19 26條相同新聞 20 /ns?word=%E6%94%AF%E4%BB%98%E5%AE%9D+cont:3869124100&same=26&cl=1&tn=news&rn=30&fm=sd 21 *********************************** 22 百度快照 23 http://cache.baidu.com/c?m=9f65cb4a8c8507ed4fece7631050803743438014678387492ac3933fc239045c1c3aa5ec677e4742ce932b2152f4174bed843670340537b0efca8e57dfb08f29288f2c367117845615a71bb8cb31649b66cf04fdea44a7ecff25e5aac5a0da4323c044757e97f1fb4d7017dd1cf4&p=8b2a970d95df11a05aa4c32013&newp=9e39c64ad4dd50fa40bd9b7c5253d8304503c52251d5ce042acc&user=baidu&fm=sc&query=%D6%A7%B8%B6%B1%A6&qid=a400f3660007a6c5&p1=2 24 *********************************** 25 雅虎日本6月起開始支持支付寶付款 26 http://www.techweb.com.cn/ucweb/news/id/2025843 27 ***********************************