本篇是使用 nodejs 寫爬蟲系列教程的第一篇, 介紹了使用 nodejs 寫爬蟲過程當中經常使用的模塊和一些必須掌握的 js 語法javascript
經常使用模塊有如下幾個:html
使用 async/await 的前提是必須將接口封裝成 promise, 下面舉一個簡單的例子:java
const sleep = (milliseconds) => {
return new Promise((resolve, reject) => {
setTimeout(() => resolve(), milliseconds)
})
}
const main = async () => {
await sleep(5000);
console.log('5秒後...');
}
main();
複製代碼
經過在 async 函數中使用 await 去調用 promise 的方式來組織異步代碼就像是同步代碼通常,很是的天然和有助於咱們分析代碼的執行流程。node
在 node 中 fs 模塊是一個很經常使用的操做文件的 native 模塊,fs (file system) 模塊提供了和文件系統相關的一些同步和異步的 api, 有時候使用同步 api 很是有必要,好比你要在一個本身寫的模塊中的在訪問文件後導出一些接口時,這個時候用同步的 api 就很實用,可是爲了充分發揮 node 異步的優點,咱們仍是應該儘可能使用異步接口。python
咱們徹底可使用 fs-extra 模塊來代替 fs 模塊, 相似的模塊還有 mz。fs-extra 包含了全部的 fs 模塊的接口,還對每一個異步接口提供了promise 支持,更棒的是 fs-extra 還提供了一些其它的實用文件操做函數, 好比刪除移動文件的操做。更詳細的介紹請查看官方倉庫 fs-extra。mysql
superagent 是一個 node 的 http client, 能夠類比 java 中的 httpclient 和 okhttp, python 中的 requests。可讓咱們模擬 http 請求。superagent 這個庫有不少實用的特色。jquery
superagent 會根據 response 的 content-type 自動序列化,經過 response.body 就能夠獲取到序列化後的返回內容git
這個庫會自動緩存和發送 cookies, 不須要咱們手動管理 cookiesgithub
再來就是它的 api 是鏈式調用風格的,調用起來很爽,不過使用的時候要注意調用順序web
它的異步 api 都是返回 promise的。
很是方便有木有😋。官方文檔就是很長的一頁,目錄清晰,很容易就搜索到你須要的內容。最後,superagent 還支持插件集成,好比你須要在超時後自動重發,可使用 superagent-retry。更多插件能夠去 npm 官網上搜索關鍵字 superagent-
。更多詳情查看官方文檔superagent
// 官方文檔的一個調用示例
request
.post('/api/pet')
.send({ name: 'Manny', species: 'cat' })
.set('X-API-Key', 'foobar')
.set('Accept', 'application/json')
.then(res => {
alert('yay got ' + JSON.stringify(res.body));
});
複製代碼
寫過爬蟲的人都知道, 咱們常常會有解析 html 的需求, 從網頁源代碼中爬取信息應該是最基礎的爬蟲手段了。python 中有 beautifulsoup, java 中有 jsoup, node 中有 cheerio。
cheerio 是爲服務器端設計的,給你近乎完整的 jquery 體驗。使用 cheerio 來解析 html 獲取元素,調用方式和 jquery 操做 dom 元素用法徹底一致。並且還提供了一些方便的接口, 好比獲取 html, 看一個例子:
const cheerio = require('cheerio')
const $ = cheerio.load('<h2 class="title">Hello world</h2>')
$('h2.title').text('Hello there!')
$('h2').addClass('welcome')
$.html()
//=> <h2 class="title welcome">Hello there!</h2>
複製代碼
官方倉庫: cheerio
log4j 是一個爲 node 設計的日誌模塊,相似的模塊還有 debug 模塊,不過我是以爲 log4js 符合我對日誌庫的需求,場景簡單狀況下可使用 debug 模塊。 其實他倆定位也不同,debug 模塊只是爲調試而設計的,log4js 則是一個日誌庫,確定得提供文件輸出和分級等功能。
log4js 模塊看名字有點向 java 中頗有名的日誌庫 log4j 看齊的節奏。log4j 有如下特色:
下面經過我最近一個爬蟲項目的配置文件來感覺如下這個庫的特色:
const log4js = require('log4js');
const path = require('path');
const fs = require('fs-extra');
const infoFilePath = path.resolve(__dirname, '../out/log/info.log');
const errorFilePath = path.resolve(__dirname, '../out/log/error.log');
log4js.configure({
appenders: {
dateFile: {
type: 'dateFile',
filename: infoFilePath,
pattern: 'yyyy-MM-dd',
compress: false
},
errorDateFile: {
type: 'dateFile',
filename: errorFilePath,
pattern: 'yyyy-MM-dd',
compress: false,
},
justErrorsToFile: {
type: 'logLevelFilter',
appender: 'errorDateFile',
level: 'error'
},
out: {
type: 'console'
}
},
categories: {
default: {
appenders: ['out'],
level: 'trace'
},
qupingce: {
appenders: ['out', 'dateFile', 'justErrorsToFile'],
level: 'trace'
}
}
});
const clear = async () => {
const files = await fs.readdir(path.resolve(__dirname, '../out/log'));
for (const fileName of files) {
fs.remove(path.resolve(__dirname, `../out/log/${fileName}`));
}
}
module.exports = {
log4js,
clear
}
複製代碼
寫項目咱們每每會有持久化的需求,簡單的場景可使用 JSON 保存數據,若是數據量比較大還要便於管理,那麼咱們就要考慮用數據庫了。若是是操做 mysql 和 sqllite 之類的建議用 sequelize, 若是是 mongodb, 我更推薦用專門爲 mongodb 設計的 mongoose
sequelize 有幾點我以爲仍是有點不太好,好比默認生成 id
(primary key), createdAt
和 updatedAt
。
拋開一些自做主張的小毛病,sequelize 設計的仍是很好的,內置的操做符,hooks, 還有 validators 頗有意思。sequelize 還提供了 promise 和 typescript 支持。若是是使用 typescript 開發項目,還有一個很好的 orm 選擇 : typeorm。更多詳情查看官方文檔: sequelize
chalk 中文意思是粉筆的意思,這個模塊是 node 頗有特點和實用的一個模塊,它能夠爲你輸出的內容添加顏色, 下劃線, 背景色等裝飾。當咱們寫項目的時候須要輸出請求信息等內容的時候能夠適當使用 chalk 來突出某些內容,好比請求的 url 加上下劃線。
const logRequest = (response, isDetailed = false) => {
const URL = chalk.underline.yellow(response.request.url);
const basicInfo = `${response.request.method} Status: ${response.status} Content-Type: ${response.type} URL=${URL}`;
if (!isDetailed) {
logger.info(basicInfo);
} else {
const detailInfo = `${basicInfo}\ntext: ${response.text}`;
logger.info(detailInfo);
}
};
複製代碼
調用上面的 logRequest效果:
更多信息查看官方倉庫chalk
若是這個庫沒據說過,你可能據說過 selenium。puppeteer 是 Google Chrome 團隊開源的一個經過 devtools 協議操縱 chrome 或者Chromium 的 node 模塊。質量有所保證。這個模塊提供了一些高級的 api, 默認狀況下,這個庫操縱的瀏覽器用戶是看不到界面的,也就是所謂的無頭(headless)瀏覽器。固然能夠經過配置啓動有界面的模式。在 chrome 中還有一些專門錄製 puppeteer 操做的擴展, 好比Puppeteer Recorder。使用這個庫咱們能夠用來抓取一些經過 js 渲染而不是直接存在於頁面源代碼中的信息。好比 spa 頁面,頁面內容都是 js 渲染出來的。這個時候 puppeteer 就爲咱們解決了這個問題,咱們能夠調用 puppeteer 在頁面某個標籤出現時獲取到頁面當時的渲染出來的 html。事實上,每每不少比較困難的爬蟲解決的最終法寶就是操縱瀏覽器。
首先要提的就是 async/await, 由於 node 在很早的時候(node 8 LTS)就已經支持 async/await, 如今寫後端項目沒理由不用 async/await了。使用 async/await 可讓咱們從回調煉獄的困境中解脫出來。這裏主要提一下關於使用async/await 時可能會碰到的問題,使用 async/await 怎樣併發?
來看一段測試代碼:
const sleep = (milliseconds) => {
return new Promise((resolve, reject) => {
setTimeout(() => resolve(), milliseconds)
})
}
const test1 = async () => {
for (let i = 0, max = 3; i < max; i++) {
await sleep(1000);
}
}
const test2 = async () => {
Array.from({length: 3}).forEach(async () => {
await sleep(1000);
});
}
const main = async () => {
console.time('測試 for 循環使用 await');
await test1();
console.timeEnd('測試 for 循環使用 await');
console.time('測試 forEach 調用 async 函數')
await test2();
console.timeEnd('測試 forEach 調用 async 函數')
}
main();
複製代碼
運行結果是:
測試 for 循環使用 await: 3003.905ms
測試 forEach 調用 async 函數: 0.372ms
複製代碼
我想可能會有些人會認爲測試 forEach 的結果會是 1 秒左右,事實上測試2等同於如下代碼:
const test2 = async () => {
// Array.from({length: 3}).forEach(async () => {
// await sleep(1000);
// });
Array.from({length: 3}).forEach(() => {
sleep(1000);
});
}
複製代碼