Selenium與PhantomJS【轉】

爬蟲(Spider),反爬蟲(Anti-Spider),反反爬蟲(Anti-Anti-Spider) 之間恢宏壯闊的鬥爭...

Day 1

  • 小莫想要某站上全部的電影,寫了標準的爬蟲(基於HttpClient庫),不斷地遍歷某站的電影列表頁面,根據 Html 分析電影名字存進本身的數據庫。
  • 這個站點的運維小黎發現某個時間段請求量陡增,分析日誌發現都是 IP(xxx.xxx.xxx.xxx)這個用戶,而且 user-agent 仍是 Python-urllib/2.7 ,基於這兩點判斷非人類後直接在服務器上封殺。

Day 2

  • 小莫電影只爬了一半,因而也針對性的變換了下策略:1. user-agent 模仿百度("Baiduspider..."),2. IP每爬半個小時就換一個IP代理。
  • 小黎也發現了對應的變化,因而在服務器上設置了一個頻率限制,每分鐘超過120次請求的再屏蔽IP。 同時考慮到百度家的爬蟲有可能會被誤傷,想一想市場部門每個月幾十萬的投放,因而寫了個腳本,經過 hostname 檢查下這個 ip 是否是真的百度家的,對這些 ip 設置一個白名單。

Day 3

  • 小莫發現了新的限制後,想着我也不急着要這些數據,留給服務器慢慢爬吧,因而修改了代碼,隨機1-3秒爬一次,爬10次休息10秒,天天只在8-12,18-20點爬,隔幾天還休息一下。
  • 小黎看着新的日誌頭都大了,再設定規則不當心會誤傷真實用戶,因而準備換了一個思路,當3個小時的總請求超過50次的時候彈出一個驗證碼彈框,沒有準確正確輸入的話就把 IP 記錄進黑名單。

Day 4

  • 小莫看到驗證碼有些傻臉了,不過也不是沒有辦法,先去學習了圖像識別(關鍵詞 PIL,tesseract),再對驗證碼進行了二值化,分詞,模式訓練以後,總之最後識別了小黎的驗證碼(關於驗證碼,驗證碼的識別,驗證碼的反識別也是一個恢弘壯麗的鬥爭史...),以後爬蟲又跑了起來。
  • 小黎是個不折不撓的好同窗,看到驗證碼被攻破後,和開發同窗商量了變化下開發模式,數據並再也不直接渲染,而是由前端同窗異步獲取,而且經過 JavaScript 的加密庫生成動態的 token,同時加密庫再進行混淆(比較重要的步驟的確有網站這樣作,參見淘寶和微博的登錄流程)。

Day 5

  • 混淆過的加密庫就沒有辦法了麼?固然不是,能夠慢慢調試,找到加密原理,不太小莫不許備用這麼耗時耗力的方法,他放棄了基於 HttpClient的爬蟲,選擇了內置瀏覽器引擎的爬蟲(關鍵詞:PhantomJS,Selenium),在瀏覽器引擎運行頁面,直接獲取了正確的結果,又一次拿到了對方的數據。
  • 小黎:.....

爬蟲與發爬蟲的鬥爭還在繼續...

一般狀況下,在爬蟲與反爬蟲的對弈中,爬蟲必定會勝利。javascript

換言之,只要人類可以正常訪問的網頁,爬蟲在具有同等資源的狀況下就必定能夠抓取到。css

關於爬蟲部分一些建議:

  1. 儘可能減小請求次數,能抓列表頁就不抓詳情頁,減輕服務器壓力,程序員都是混口飯吃不容易。
  2. 不要只看 Web 網站,還有手機 App 和 H5,這樣的反爬蟲措施通常比較少。
  3. 實際應用時候,通常防守方作到根據 IP 限制頻次就結束了,除非很核心的數據,不會再進行更多的驗證,畢竟成本的問題會考慮到。
  4. 若是真的對性能要求很高,能夠考慮多線程(一些成熟的框架如 Scrapy都已支持),甚至分佈式...

關於反爬蟲部分的一些建議:

  • 這篇文章就夠了:攜程技術中心 - 攜程酒店研發部研發經理崔廣宇 <爬蟲與反爬蟲> 技術分享html

    動態HTML介紹

    JavaScript

    JavaScript 是網絡上最經常使用也是支持者最多的客戶端腳本語言。它能夠收集 用戶的跟蹤數據,不須要重載頁面直接提交表單,在頁面嵌入多媒體文件,甚至運行網頁遊戲。前端

    咱們能夠在網頁源代碼的<scripy>標籤裏看到,好比:java

       
       
       
       

    jQuery

    jQuery 是一個十分常見的庫,70% 最流行的網站(約 200 萬)和約 30% 的其餘網站(約 2 億)都在使用。一個網站使用 jQuery 的特徵,就是源代碼裏包含了 jQuery 入口,好比:python

       
       
       
       

    若是你在一個網站上看到了 jQuery,那麼採集這個網站數據的時候要格外當心。jQuery 可 以動態地建立 HTML 內容,只有在 JavaScript 代碼執行以後纔會顯示。若是你用傳統的方 法採集頁面內容,就只能得到 JavaScript 代碼執行以前頁面上的內容。jquery

    Ajax

    咱們與網站服務器通訊的惟一方式,就是發出 HTTP 請求獲取新頁面。若是提交表單以後,或從服務器獲取信息以後,網站的頁面不須要從新刷新,那麼你訪問的網站就在用Ajax 技術。程序員

    Ajax 其實並非一門語言,而是用來完成網絡任務(能夠認爲 它與網絡數據採集差很少)的一系列技術。Ajax 全稱是 Asynchronous JavaScript and XML(異步 JavaScript 和 XML),網站不須要使用單獨的頁面請求就能夠和網絡服務器進行交互 (收發信息)。web

    DHTML

    Ajax 同樣,動態 HTML(Dynamic HTML, DHTML)也是一系列用於解決網絡問題的 技術集合。DHTML 是用客戶端語言改變頁面的 HTML 元素(HTML、CSS,或者兩者皆 被改變)。好比頁面上的按鈕只有當用戶移動鼠標以後纔出現,背景色可能每次點擊都會改變,或者用一個 Ajax 請求觸發頁面加載一段新內容,網頁是否屬於DHTML,關鍵要看有沒有用 JavaScript 控制 HTML 和 CSS 元素。數據庫

    那麼,如何搞定?

    那些使用了 Ajax 或 DHTML 技術改變 / 加載內容的頁面,可能有一些採集手段。可是用 Python 解決這個問題只有兩種途徑:

    1. 直接從 JavaScript 代碼裏採集內容(費時費力)
    2. 用 Python 的 第三方庫運行 JavaScript,直接採集你在瀏覽器裏看到的頁面(這個能夠有)。

 

Selenium 與 PhantomJS

Selenium簡介

Selenium是一個Web的自動化測試工具,最初是爲網站自動化測試而開發的,類型像咱們玩遊戲用的按鍵精靈,能夠按指定的命令自動操做,不一樣是Selenium 能夠直接運行在瀏覽器上,它支持全部主流的瀏覽器(包括PhantomJS這些無界面的瀏覽器)。

Selenium 能夠根據咱們的指令,讓瀏覽器自動加載頁面,獲取須要的數據,甚至頁面截屏,或者判斷網站上某些動做是否發生。

Selenium 本身不帶瀏覽器,不支持瀏覽器的功能,它須要與第三方瀏覽器結合在一塊兒才能使用。可是咱們有時候須要讓它內嵌在代碼中運行,因此咱們能夠用一個叫 PhantomJS 的工具代替真實的瀏覽器。

能夠從 PyPI 網站下載 Selenium庫https://pypi.python.org/simple/selenium ,也能夠用 第三方管理器 pip用命令安裝:pip install selenium

Selenium 官方參考文檔:http://selenium-python.readthedocs.io/index.html

PhantomJS簡介

PhantomJS 是一個基於Webkit的「無界面」(headless)瀏覽器,它會把網站加載到內存並執行頁面上的 JavaScript,由於不會展現圖形界面,因此運行起來比完整的瀏覽器要高效。

若是咱們把 Selenium 和 PhantomJS 結合在一塊兒,就能夠運行一個很是強大的網絡爬蟲了,這個爬蟲能夠處理 JavaScrip、Cookie、headers,以及任何咱們真實用戶須要作的事情。

注意:PhantomJS 只能從它的官方網站http://phantomjs.org/download.html) 下載。 由於 PhantomJS 是一個功能完善(雖然無界面)的瀏覽器而非一個 Python 庫,因此它不須要像 Python 的其餘庫同樣安裝,但咱們能夠經過Selenium調用PhantomJS來直接使用。

PhantomJS 官方參考文檔:http://phantomjs.org/documentation

快速入門

Selenium 庫裏有個叫 WebDriver 的 API。WebDriver 有點兒像能夠加載網站的瀏覽器,可是它也能夠像 BeautifulSoup 或者其餘 Selector 對象同樣用來查找頁面元素,與頁面上的元素進行交互 (發送文本、點擊等),以及執行其餘動做來運行網絡爬蟲。

 
 
 
 

頁面操做

Selenium 的 WebDriver提供了各類方法來尋找元素,假設下面有一個表單輸入框:

 
 
 
 

那麼:

 
 
 
 

定位UI元素 (WebElements)

關於元素的選取,有以下的API 單個元素選取
 
 
 
 
  1. By ID

       
       
       
       
    • 實現

           
           
           
           
  1. By Class Name

       
       
       
       
    • 實現

           
           
           
           
  2. By Tag Name

       
       
       
       
    • 實現

           
           
           
           
  3. By Name

       
       
       
       
    • 實現

           
           
           
           
  4. By Link Text

       
       
       
       
    • 實現

           
           
           
           
  5. By Partial Link Text

       
       
       
       
    • 實現

           
           
           
           
  6. By CSS

       
       
       
       
    • 實現

           
           
           
           
  7. By XPath

       
       
       
       
    • 實現

           
           
           
           

鼠標動做鏈

有些時候,咱們須要再頁面上模擬一些鼠標操做,好比雙擊、右擊、拖拽甚至按住不動等,咱們能夠經過導入 ActionChains 類來作到:

示例:

 
 
 
 

填充表單

咱們已經知道了怎樣向文本框中輸入文字,可是有時候咱們會碰到<select> </select>標籤的下拉框。直接點擊下拉框中的選項不必定可行。

 
 
 
 

img

Selenium專門提供了Select類來處理下拉框。 其實 WebDriver 中提供了一個叫 Select 的方法,能夠幫助咱們完成這些事情:

 
 
 
 

以上是三種選擇下拉框的方式,它能夠根據索引來選擇,能夠根據值來選擇,能夠根據文字來選擇。注意:

  • index 索引從 0 開始
  • value是option標籤的一個屬性值,並非顯示在下拉框中的值
  • visible_text是在option標籤文本的值,是顯示在下拉框的值

所有取消選擇怎麼辦呢?很簡單:

 
 
 
 

彈窗處理

當你觸發了某個事件以後,頁面出現了彈窗提示,處理這個提示或者獲取提示信息方法以下:

 
 
 
 

頁面切換

一個瀏覽器確定會有不少窗口,因此咱們確定要有方法來實現窗口的切換。切換窗口的方法以下:

 
 
 
 

也可使用 window_handles 方法來獲取每一個窗口的操做對象。例如:

 
 
 
 

頁面前進和後退

操做頁面的前進和後退功能:

 
 
 
 

Cookies

獲取頁面每一個Cookies值,用法以下

 
 
 
 

刪除Cookies,用法以下

 
 
 
 

頁面等待

注意:這是很是重要的一部分!!

如今的網頁愈來愈多采用了 Ajax 技術,這樣程序便不能肯定什麼時候某個元素徹底加載出來了。若是實際頁面等待時間過長致使某個dom元素還沒出來,可是你的代碼直接使用了這個WebElement,那麼就會拋出NullPointer的異常。

爲了不這種元素定位困難並且會提升產生 ElementNotVisibleException 的機率。因此 Selenium 提供了兩種等待方式,一種是隱式等待,一種是顯式等待。

隱式等待是等待特定的時間,顯式等待是指定某一條件直到這個條件成立時繼續執行。

顯式等待

顯式等待指定某個條件,而後設置最長等待時間。若是在這個時間尚未找到元素,那麼便會拋出異常了。

 
 
 
 

若是不寫參數,程序默認會 0.5s 調用一次來查看元素是否已經生成,若是原本元素就是存在的,那麼會當即返回。

下面是一些內置的等待條件,你能夠直接調用這些條件,而不用本身寫某些等待條件了。

 
 
 
 

隱式等待

隱式等待比較簡單,就是簡單地設置一個等待時間,單位爲秒。

 
 
 
 

固然若是不設置,默認等待時間爲0。

相關文章
相關標籤/搜索