構建一個給爬蟲使用的代理IP池

作網絡爬蟲時,通常對代理IP的需求量比較大。由於在爬取網站信息的過程當中,不少網站作了反爬蟲策略,可能會對每一個IP作頻次控制。這樣咱們在爬取網站時就須要不少代理IP。前端

代理IP的獲取,能夠從如下幾個途徑獲得:java

  • 從免費的網站上獲取,質量很低,能用的IP極少
  • 購買收費的代理服務,質量高不少
  • 本身搭建代理服務器,穩定,但須要大量的服務器資源。

本文的代理IP池是經過爬蟲事先從多個免費網站上獲取代理IP以後,再作檢查判斷IP是否可用,可用的話就存放到MongoDB中,最後展現到前端的頁面上。react

獲取可用Proxy

獲取代理的核心代碼是ProxyManager,它採用RxJava2來實現,主要作了如下幾件事:git

  1. 建立ParallelFlowable,針對每個提供免費代理IP的頁面並行地抓取。對於不瞭解ParallelFlowable的同窗,能夠看我以前的文章RxJava 之 ParallelFlowable
Flowable.fromIterable(ProxyPool.proxyMap.keySet())
                .parallel()複製代碼
  1. 針對每個頁面進行抓取,返回Listgithub

    map(new Function<String, List<Proxy>>() {
                     @Override
                     public List<Proxy> apply(String s) throws Exception {
    
                         try {
                             return new ProxyPageCallable(s).call();
                         } catch (Exception e) {
                             e.printStackTrace();
                         }
    
                         return null;
                     }
                 })複製代碼
  2. 對每個頁面獲取的代理IP列表進行校驗,判斷是否可用spring

    flatMap(new Function<List<Proxy>, Publisher<Proxy>>() {
                     @Override
                     public Publisher<Proxy> apply(List<Proxy> proxies) throws Exception {
    
                         if (proxies == null) return null;
    
                         List<Proxy> result = proxies
                                 .stream()
                                 .parallel()
                                 .filter(new Predicate<Proxy>() {
                             @Override
                             public boolean test(Proxy proxy) {
    
                                 HttpHost httpHost = new HttpHost(proxy.getIp(), proxy.getPort(), proxy.getType());
                                 return HttpManager.get().checkProxy(httpHost);
                             }
                         }).collect(Collectors.toList());
    
                         return Flowable.fromIterable(result);
                     }
                 })複製代碼
  3. 依次保存到proxyListapache

    subscribe(new Consumer<Proxy>() {
                     @Override
                     public void accept(Proxy proxy) throws Exception {
                         log.debug("Result Proxy = "+proxy.getType()+"://"+proxy.getIp()+":"+proxy.getPort());
                         proxy.setLastSuccessfulTime(new Date().getTime());
                         ProxyPool.proxyList.add(proxy);
                     }
                 });複製代碼

附上完整的流程圖
服務器

ProxyPool流程.png
ProxyPool流程.png

再附上完整的ProxyManager代碼:網絡

import com.cv4j.proxy.domain.Proxy;
import com.cv4j.proxy.http.HttpManager;
import com.cv4j.proxy.task.ProxyPageCallable;
import io.reactivex.Flowable;
import io.reactivex.functions.Consumer;
import io.reactivex.functions.Function;
import lombok.extern.slf4j.Slf4j;
import org.apache.http.HttpHost;
import org.reactivestreams.Publisher;
import org.springframework.stereotype.Component;

import java.util.Date;
import java.util.List;
import java.util.function.Predicate;
import java.util.stream.Collectors;

/** * Created by tony on 2017/10/25. */
@Slf4j
@Component
public class ProxyManager {

    /** * 抓取代理,成功的代理存放到ProxyPool中 */
    public void start() {

        Flowable.fromIterable(ProxyPool.proxyMap.keySet())
                .parallel()
                .map(new Function<String, List<Proxy>>() {
                    @Override
                    public List<Proxy> apply(String s) throws Exception {

                        try {
                            return new ProxyPageCallable(s).call();
                        } catch (Exception e) {
                            e.printStackTrace();
                        }

                        return null;
                    }
                })
                .flatMap(new Function<List<Proxy>, Publisher<Proxy>>() {
                    @Override
                    public Publisher<Proxy> apply(List<Proxy> proxies) throws Exception {

                        if (proxies == null) return null;

                        List<Proxy> result = proxies
                                .stream()
                                .parallel()
                                .filter(new Predicate<Proxy>() {
                            @Override
                            public boolean test(Proxy proxy) {

                                HttpHost httpHost = new HttpHost(proxy.getIp(), proxy.getPort(), proxy.getType());
                                return HttpManager.get().checkProxy(httpHost);
                            }
                        }).collect(Collectors.toList());

                        return Flowable.fromIterable(result);
                    }
                })
                .sequential()
                .subscribe(new Consumer<Proxy>() {
                    @Override
                    public void accept(Proxy proxy) throws Exception {
                        log.debug("Result Proxy = "+proxy.getType()+"://"+proxy.getIp()+":"+proxy.getPort());
                        proxy.setLastSuccessfulTime(new Date().getTime());
                        ProxyPool.proxyList.add(proxy);
                    }
                });
    }
}複製代碼

定時任務

每隔幾個小時跑一次定時任務,在抓取完任務以後先刪除舊的數據,而後再把新的數據插入到MongoDB中。app

import com.cv4j.proxy.ProxyManager;
import com.cv4j.proxy.ProxyPool;
import com.cv4j.proxy.dao.ProxyDao;
import com.cv4j.proxy.domain.Proxy;
import com.safframework.tony.common.utils.Preconditions;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.scheduling.annotation.Scheduled;
import org.springframework.stereotype.Component;

import java.util.concurrent.CopyOnWriteArrayList;

/** * Created by tony on 2017/11/22. */
@Component
public class ScheduleJobs {

    @Autowired
    ProxyDao proxyDao;

    @Autowired
    ProxyManager proxyManager;

    /** * 每六個小時跑一次任務 */
    @Scheduled(cron = "0 0 */6 * * ?")
    public void cronJob() {
        System.out.println("Job Start...");

        proxyManager.start();

        CopyOnWriteArrayList<Proxy> list = ProxyPool.proxyList;

        // 先刪除舊的數據
        proxyDao.deleteAll();

        // 而後再進行插入新的proxy
        if (Preconditions.isNotBlank(list)) {

            for (Proxy p:list) {

                proxyDao.saveProxy(p);
            }
        }

        System.out.println("Job End...");
    }
}複製代碼

展現到前端

整個項目使用Spring Boot搭建,運行起來以後本地訪問地址:
http://localhost:8080/load?pagename=proxy_list

預覽效果以下:

代理列表.jpeg
代理列表.jpeg

在使用前,還能夠再作一次檢測,只要雙擊某個代理IP便可。

檢測某個代理.jpeg
檢測某個代理.jpeg

在第二次檢測時,對於已經失效的IP會被ProxyPool刪除。

總結

在作爬蟲時,本身維護一個可用的代理IP池是頗有必要的事情,固然想要追求更高穩定性的代理IP仍是考慮購買比較好。

最後,附上github地址:
github.com/fengzhizi71…

相關文章
相關標籤/搜索