puppeteer
谷歌推出的用於操做無頭瀏覽器的nodeJs框架,提供上層API用於直接操做瀏覽器。該框架適用於爬取web2.0頁面,同時對web1.0的支持率也比較高,代碼編寫也很簡單。 puppeteer中文文檔html
Puppeteer-cluster
池化思想做用於puppeteer的產物,任務分發與調度,讓nodejs能夠利用自身去實現整個爬蟲。在使用該組件以前,我使用java來寫爬蟲的調度算法,而後用eureka來調用nodejs的頁面抓取模塊。 puppeteer-cluster項目地址java
首先須要獲取整站的全部頁面
獲取全部頁面,並肯定當url是pan.baidu.com的時候過濾掉已經失效的連接node
const {Cluster} = require('puppeteer-cluster'); const launchOptions = { headless: true, ignoreHTTPSErrors: true, // 忽略證書錯誤 waitUntil: 'networkidle2', defaultViewport: { width: 1920, height: 1080 }, args: [ '--disable-gpu', '--disable-dev-shm-usage', '--disable-web-security', '--disable-xss-auditor', // 關閉 XSS Auditor '--no-zygote', '--no-sandbox', '--disable-setuid-sandbox', '--allow-running-insecure-content', // 容許不安全內容 '--disable-webgl', '--disable-popup-blocking', //'--proxy-server=http://127.0.0.1:8080' // 配置代理 ], executablePath: 'C:\\Program Files (x86)\\Google\\Chrome\\Application\\chrome.exe', }; const clusterLanuchOptions = { concurrency: Cluster.CONCURRENCY_PAGE, // 單Chrome多tab模式 maxConcurrency: 20, // 併發的workers數 retryLimit: 2, // 重試次數 skipDuplicateUrls: true, // 不爬重複的url monitor: true, // 顯示性能消耗 puppeteerOptions: launchOptions, }; (async () => { const cluster = await Cluster.launch(clusterLanuchOptions); const cluster2 = await Cluster.launch(clusterLanuchOptions2); await cluster2.task(async ({page, data: url}) => { let urlTrue = url.split(' ')[0]; await page.goto(urlTrue); await page.waitForSelector('html'); let title = await page.title(); let x = "D:\\workspace\\node\\check\\bbs\\controllers\\pantrue.txt"; if (title.indexOf('不存在') === -1) { let value = ''; if (title.indexOf('分享無限制')) { value = urlTrue + ' ' + title + '\n'; } else { value = url.split(' ')[1].substr(0, 20) + ' ' + url.split(' ')[2] + ' ' + urlTrue + ' ' + title + '\n'; } fs.writeFile(x, value, {flag: 'a'}, function (err) { if (err !== null) { console.log(err); } }); } }); await cluster.task(async ({page, data: url}) => { await page.goto(url); await page.waitForSelector('html'); let title = await page.title(); await page.content(); let x = "D:\\workspace\\node\\check\\bbs\\controllers\\pan.txt"; let y = "D:\\workspace\\node\\check\\bbs\\controllers\\outDomain.txt"; let yuanDomain = urllib.parse(urlTrue); let newDomain = urllib.parse(url); if (yuanDomain.hostname !== newDomain.hostname) { if (!outUrlSet.has(newDomain.hostname)) { fs.writeFile(y, url + ' ' + title + '\n', { flag: 'a' }, function (err) { if (err) { console.error(err); } }); outUrlSet.add(newDomain.hostname); } } else { let links = await page.$$eval('[src],[href],[action],[data-url],[longDesc],[lowsrc]', get_src_and_href_links); let res = await parseLinks(links, url); console.log({links: links.length}, {res: res.length}); for (let i = 0; i < res.length; i++) { let link = res[i]; if (link !== undefined && link.indexOf("pan.baidu.com") !== -1) { // todo 存起來 if (!panSet.has(link)) { fs.writeFile(x, link + ' ' + title + ' ' + url + '\n', { flag: 'a' }, function (err) { if (err) { console.error(err); } }); cluster2.queue(link + ' ' + title + ' ' + url); panSet.add(link); } } else { cluster.queue(link); } } } }); cluster.queue('http://www.xxxxx.com/'); await cluster.idle(); await cluster.close(); })(); async function parseLinks(links, url) { let result = []; // 處理url return result; } function get_src_and_href_links(nodes) { let result = []; // 獲取節點中的全部 return result; }
分析頁面,獲取更深的信息
獲得的盤連接,有些是無限制的,有些是須要tiquma的,而tiquma該如何獲取呢?每每原來的頁面裏面會有,這個時候咱們就須要分析原來的頁面了。 在這個網站中,提取碼幾乎都放在strong標籤中,那咱們只好使用方法獲得頁面中的strong標籤 在puppeteer中能夠使用page.$$eval()方法來獲取strong節點集合,而後使用treeWalker遍歷整個節點獲得咱們想要的東西便可。git
let {text,html} = await page.$$eval('strong', getTiQuMa); function getTiQuMa(nodes) { let html = ''; let text = ''; for (let node of nodes) { let treeWalker = document.createTreeWalker( node, NodeFilter.SHOW_ELEMENT, { acceptNode: function (node1) { return NodeFilter.FILTER_ACCEPT; } }, false ); while (treeWalker.nextNode()) { let element = treeWalker.currentNode; text = text + ' ' + element.innerText; } } return {text: text, html: html}; }
問題展望
如今,咱們實現了基於一個網站的全部盤連接的獲取,那麼,若是如今想要實現一個通用的盤連接獲取爬蟲,從而實現盤連接的搜索引擎該如何完成呢? 關注我,讓我給你解答。github
炒雞辣雞原創文章,轉載請註明來源web