近期讀到了alsotang的node教程,對一些基礎知識又有了些新認識,故從新梳理了一下,分享出來。這裏是教程地址。html
本次使用了superagent、cheerio來爬取知乎的發現頁文章列表,經過async來控制併發數來動態獲取延時加載的文章。源碼地址,以及做者的blog歡迎關注,不按期更新中——node
// Spider.js
var http = require('http')
const server = http.createServer((req, res) => {
...
}).listen(9090)複製代碼
nodejs封裝了HTTP模塊可讓咱們快速的搭建一個基礎服務,由上面代碼能夠看出其實一句話就能夠解決問題。至於想深刻HTTP模塊可參照文檔。至此咱們能夠經過c++
node Spider.js複製代碼
來開啓服務器,這裏推薦使用nodemon其自動監聽代碼修改並自啓動仍是很方便的。git
var baseUrl = 'http://www.zhihu.com/node/ExploreAnswerListV2'
superagent.get(baseUrl)
.set({
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36',
'Referrer': 'www.baidu.com'
})
.query({
params: JSON.stringify(params)
})
.end(function(err, obj) {
if(err) return null
res.end(JSON.stringify(obj))
//res是一個可寫流裏面傳遞的參數類型爲string或buffer
//故使用JSON.stringify()
})複製代碼
superagent採用了鏈式調用的形式其API用法一目瞭然。咱們都知道如今的大列表都會實行懶加載,即用戶下拉到必定程度再去請求新的列表,因此咱們的爬蟲也應該用某種規則來獲取那些一開始進入頁面沒有獲取到的文章列表。咱們來看下知乎發現頁下的network,當頁面向下滾動的時候會加載新的文章,這個時候會發一個新的請求:
github
offset = 0、五、10...
var params = {
'offset':offset,
'type':'day'
}
superagent.get(baseUrl)
.query({
params: params
})
.end(function(err, obj) {
...
})
};複製代碼
這樣寫在請求中會變成什麼狀況呢?編程
是否是哪裏怪怪的?咱們發現這麼寫的話瀏覽器會解析這個參數。。自己的樣子應該是:後端
這個對象轉變成了字符串,也就是調用了JSON.stringify()
方法來將對象進行變換。我知道做者比較愚鈍,之後不會再犯這種低級。。特此分享!api
const cheerio = require('cheerio')
...
const server = http.createServer((req, res) => {
...
superagent.get(baseUrl)
...
.end(function(err, obj) {
if(err) return null
var $ = cheerio.load(obj.text)
//有興趣能夠打印obj看看裏面都有什麼;
//text屬性中有着html信息;
var items = []
var baseUrl = 'https://www.zhihu.com'
$('.explore-feed').each(function (index, el) {
var $el = $(el)
var tittle = $el.find('h2 a').text().replace(/[\r\n]/g, '')
var href = url.resolve(baseUrl, $el.find('h2 a').attr('href'))
var author = $el.find('.author-link').text()
items.push({
title: tittle,
href: href,
author: author
})
})
res.end(JSON.stringify(items))
})
}).listen(9090)複製代碼
經過cheerio.load()
方法將返回的html封裝爲jQ形式,以後就可使用jQ的語法對立面的html操做了,whatever u want.瀏覽器
如今的需求是咱們但願能夠動態的爬取頁面信息,那麼確定就要發不少請求。在這裏有兩種選擇。咱們能夠一次性去請求,也能夠控制請求數來執行。在這裏咱們採用控制併發數的方式進行請求。緣由主要在於瀏覽器一般會有安全限制不會容許對同一域名有過大的併發數畢竟早期服務器受不了這種操做,很脆弱;再因爲有些網站會檢測你的請求,若是併發數過多會以爲是惡意爬蟲啥的之類的把你的IP封掉,因此乖乖的控制下併發數吧。安全
本次使用了這個爲解決異步編程的弊端即回調地獄所推出的一個流程控制庫,讓開發人員能夠有着同步編程的體驗來進行異步開發,這樣也順應了人的思惟模式。這裏推薦一個github倉庫這裏面有着對async庫使用的demo,簡直好用到爆炸?借用其中一個例子:
var arr = [{name:'Jack', delay:200}, {name:'Mike', delay: 100}, {name:'Freewind', delay:300}, {name:'Test', delay: 50}];
async.mapLimit(arr,2, function(item, callback) {
log('1.5 enter: ' + item.name);
setTimeout(function() {
log('1.5 handle: ' + item.name);
if(item.name==='Jack') callback('myerr');
else callback(null, item.name+'!!!');
}, item.delay);
}, function(err, results) {
log('1.5 err: ', err);
log('1.5 results: ', results);
});
//57.797> 1.5 enter: Jack
//57.800> 1.5 enter: Mike
//57.900> 1.5 handle: Mike
//57.900> 1.5 enter: Freewind
//58.008> 1.5 handle: Jack
//58.009> 1.5 err: myerr
//58.009> 1.5 results: [ undefined, 'Mike!!!' ]
//58.208> 1.5 handle: Freewind
//58.208> 1.5 enter: Test
//58.273> 1.5 handle: Test複製代碼
能夠看出mapLimit核心的操做就是先放入須要異步操做的數據,再設定併發數;而後在第一個func中對其進行遍歷執行,當執行完成後調用callback,最後全部callback會彙總到第二個func中。有興趣的同窗能夠去閱讀文檔,async對異步操做的封裝仍是很完善的。
var superagent = require('superagent')
var cheerio = require('cheerio')
var http = require('http')
var url = require('url');
var async = require('async')
const server = http.createServer((req, res) => {
var count = 0;
var fetchUrl = function (offset, callback) {
count++;
console.log('當前併發數:', count) //測試併發數
var baseUrl = 'http://www.zhihu.com/node/ExploreAnswerListV2'
var params = {
'offset':offset,
'type':'day'
}
superagent.get(baseUrl)
.set({
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36',
'Referrer': 'www.baidu.com'
})
.query({
params: params
})
.end(function(err, obj) {
if(err) return null
var $ = cheerio.load(obj.text)
var items = []
var baseUrl = 'https://www.zhihu.com'
$('.explore-feed').each(function (index, item) {
// item = this, $(this)轉換爲jq對象
var tittle = $(this).find('h2 a').text().replace(/[\r\n]/g, '') //去掉空格
var href = url.resolve(baseUrl, $(this).find('h2 a').attr('href'))
var author = $(this).find('.author-link').text()
items.push({
title: tittle,
href: href,
author: author
})
})
count--
console.log('釋放了併發數後,當前併發數:', count)
callback(null, JSON.stringify(items))
})
};
var offsets = [];
for(var i = 0; i < 13; i++) {
offsets.push(i * 5); //生成不少offset參數值
}
async.mapLimit(offsets, 5, function (offset, callback) {
fetchUrl(offset, callback);
}, function (err, result) {
res.writeHead(200, { 'Content-Type': 'text/plain; charset=utf8' });
//記得加上編碼utf-8 有亂碼別找我
res.end(JSON.stringify(result))
});
}).listen(9090)複製代碼
再看下後端console下對併發數的檢測:
以及爬取到的文章列表:
一直但願能夠學好node,但老是因爲各類緣由被阻撓,如今準備開始細細學習一下原生的API(至於怎麼實現的。。對不起這輩子註定無緣c++。腦子真的不夠),之後會不按期更新到blog中對於一些node基礎知識的理解。基礎真的很重要。慣例:做者的博客歡迎不定時關注——