動態網頁爬蟲

Ajax是什麼

AJAX(Asynchronouse JavaScript And XML)異步JavaScript和XML。過在後臺與服務器進行少許數據交換,Ajax 可使網頁實現異步更新。這意味着能夠在不從新加載整個網頁的狀況下,對網頁的某部分進行更新。傳統的網頁(不使用Ajax)若是須要更新內容,必須重載整個網頁頁面。由於傳統的在傳輸數據格式方面,使用的是XML語法。所以叫作AJAX,其實如今數據交互基本上都是使用JSON。使用AJAX加載的數據,即便使用了JS,將數據渲染到了瀏覽器中,在右鍵->查看網頁源代碼仍是不能看到經過ajax加載的數據,只能看到使用這個url加載的html代碼css

獲取Ajax數據的方式

  • 直接分析ajax調用的接口。而後經過代碼請求這個接口
  • 使用 selenium + chromedriver 模擬瀏覽器行爲獲取數據
方式 優勢 缺點
分析接口 直接能夠請求到數據,不須要作任何解析工做,代碼量少,性能高 分析接口比較複雜,特別是一些經過js混淆的接口,容易被發現是爬蟲
selenium 直接模擬瀏覽器的行爲,瀏覽器能夠請求到的,使用 selenium 也能請求到,比較穩定 代碼量多,性能低

selenium + chromedriver 獲取動態數據

selenium至關因而一個機器人,能夠模擬人在瀏覽器上的一些行爲,自動處理瀏覽器上的一些行爲,好比點擊,填充數據,刪除cookie等html

chromedriver是一個驅動chrome瀏覽器的驅動程序,使用他才能夠驅動瀏覽器,針對不一樣的瀏覽器有不一樣的driverjava

安裝 selenium + chromedriver

  • 安裝selenium:selenium有不少語言的版本,有java、ruby、python等 pip install selenium
  • 安裝chromedriver:下載和本身瀏覽器版本對應的文件,放到不須要權限的純英文目錄下就能夠了

簡單使用

以一個簡單的獲取百度首頁的例子使用 selenium和chromedriverpython

from selenium import webdriver

# chromedriver的絕對路徑
driver_path = r'D:\Program Files\chromedriver\chromedriver.exe'

# 初始化一個driver,而且指定chromedriver的路徑
driver = webdriver.Chrome(executable_path=driver_path)

# 請求網頁
driver.get('https://www.meowv.com/')

# 經過page_source獲取網頁源代碼
print(driver.page_source)

selenium 經常使用的操做

官方文檔:https://selenium-python.readthedocs.io/installation.html#introductiongit

關閉頁面

  • driver.close():關閉當前頁面
  • driver.quit():退出整個瀏覽器

定位元素

  • find_element_by_id:根據id來查找某個元素
submitTag = driver.find_element_by_id('su')
submitTag1 = driver.find_element(By.ID,'su')
  • find_element_by_class_name:根據類名查找元素
submitTag = driver.find_element_by_class_name('su')
submitTag1 = driver.find_element(By.CLASS_NAME,'su')
  • find_element_by_name:根據name屬性的值來查找元素
submitTag = driver.find_element_by_name('email')
submitTag1 = driver.find_element(By.NAME,'email')
  • find_element_by_tag_name:根據標籤名來查找元素
submitTag = driver.find_element_by_tag_name('div')
submitTag1 = driver.find_element(By.TAG_NAME,'div')
  • find_element_by_xpath:根據xpath語法來獲取元素
submitTag = driver.find_element_by_xpath('//div')
submitTag1 = driver.find_element(By.XPATH,'//div')
  • find_element_by_css_selector:根據css選擇器選擇元素
submitTag = driver.find_element_by_css_selector('//div')
submitTag1 = driver.find_element(By.CSS_SELECTOR,'//div')
  • find_element 是獲取第一個知足條件的元素
  • find_elements 是獲取全部知足條件的元素

操做表單元素

  • 操做輸入框:分爲兩步。第一步:找到這個元素。第二步:使用send_keys(value),將數據填充進去
inputTag = driver.find_element_by_id('kw')
inputTag.send_keys('python')

使用clear方法能夠清除輸入框中的內容 inputTag.clear()github

  • 操做checkbox:由於要選中checkbox標籤,在網頁中是經過鼠標點擊的。所以想要選中checkbox標籤,那麼先選中這個標籤,而後執行click事件
rememberTag = driver.find_element_by_name("rememberMe")
rememberTag.click()
  • 選擇select:select元素不能直接點擊。由於點擊後還須要選中元素。這時候selenium就專門爲select標籤提供了一個類selenium.webdriver.support.ui.Select。將獲取到的元素當成參數傳到這個類中,建立這個對象。之後就可使用這個對象進行選擇了
from selenium.webdriver.support.ui import Select
# 選中這個標籤,而後使用Select建立對象
selectTag = Select(driver.find_element_by_id("city-select"))
# 根據索引選擇
selectTag.select_by_index(1)
# 根據值選擇
selectTag.select_by_value("https://news.hao123.com/wangzhi")
# 根據可視的文本選擇
selectTag.select_by_visible_text("上海")
# 取消選中全部選項
selectTag.deselect_all()
  • 操做按鈕:操做按鈕有不少種方式。好比單擊、右擊、雙擊等。這裏講一個最經常使用的。就是點擊。直接調用click函數就能夠了
inputTag = driver.find_element_by_id('su')
inputTag.click()

行爲鏈

有時候在頁面中的操做可能要有不少步,那麼這時候可使用鼠標行爲鏈類ActionChains來完成。好比如今要將鼠標移動到某個元素上並執行點擊事件web

inputTag = driver.find_element_by_id('kw')
submitTag = driver.find_element_by_id('su')

actions = ActionChains(driver)
actions.move_to_element(inputTag)
actions.send_keys_to_element(inputTag,'python')
actions.move_to_element(submitTag)
actions.click(submitTag)
actions.perform()

還有更多的鼠標相關的操做ajax

Cookie操做

  • 獲取全部的cookie
for cookie in driver.get_cookies():
    print(cookie)

-根據cookie的key獲取valuechrome

value = driver.get_cookie(key)
  • 刪除全部的cookie:
driver.delete_all_cookies()
  • 刪除某個cookie:
driver.delete_cookie(key)

頁面等待

如今的網頁愈來愈多采用了 Ajax 技術,這樣程序便不能肯定什麼時候某個元素徹底加載出來了。若是實際頁面等待時間過長致使某個dom元素還沒出來,可是你的代碼直接使用了這個WebElement,那麼就會拋出NullPointer的異常。爲了解決這個問題。因此 selenium 提供了兩種等待方式:一種是隱式等待、一種是顯式等待。api

  • 隱式等待:調用driver.implicitly_wait。那麼在獲取不可用的元素以前,會先等待10秒中的時間。
driver = webdriver.Chrome(executable_path=driver_path)
driver.implicitly_wait(10)
# 請求網頁
driver.get("https://www.douban.com/")
  • 顯示等待:顯示等待是代表某個條件成立後才執行獲取元素的操做。也能夠在等待的時候指定一個最大的時間,若是超過這個時間那麼就拋出一個異常。顯示等待應該使用selenium.webdriver.support.excepted_conditions指望的條件和selenium.webdriver.support.ui.WebDriverWait來配合完成.
from selenium import webdriver
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.by import By

driver_path = r'D:\Program Files\chromedriver\chromedriver.exe'
driver = webdriver.Chrome(executable_path=driver_path)

driver.get('https://www.douban.com/')
driver.implicitly_wait(20)

element = WebDriverWait(driver, 10).until(
    EC.presence_of_element_located((By.NAME, 'phone'))
)
print(element)
  • 一些其餘的等待條件
    • presence_of_element_located:某個元素已經加載完畢了
    • presence_of_all_emement_located:網頁中全部知足條件的元素都加載完畢了
    • element_to_be_cliable:某個元素是能夠點擊了
    • 更多條件請參考:http://selenium-python.readthedocs.io/waits.html

切換頁面

有時候窗口中有不少子tab頁面。這時候確定是須要進行切換的。selenium提供了一個叫作switch_to_window來進行切換,具體切換到哪一個頁面,能夠從driver.window_handles中找到。

# 打開一個新的頁面
self.driver.execute_script("window.open('"+url+"')")
# 切換到這個新的頁面中
self.driver.switch_to_window(self.driver.window_handles[1])

設置代理ip

有時候頻繁爬取一些網頁。服務器發現你是爬蟲後會封掉你的ip地址。這時候咱們能夠更改代理ip。更改代理ip,不一樣的瀏覽器有不一樣的實現方式。這裏以Chrome瀏覽器爲例

from selenium import webdriver

options = webdriver.ChromeOptions()
options.add_argument("--proxy-server=http://132.232.126.92:8888")
driver_path = r"D:\Program Files\chromedriver\chromedriver.exe"
driver = webdriver.Chrome(executable_path=driver_path,chrome_options=options)

driver.get('http://httpbin.org/ip')

WebElement元素

from selenium.webdriver.remote.webelement import WebElement類是每一個獲取出來的元素的所屬類,它有一些經常使用的屬性

  • get_attribute:這個標籤的某個屬性的值
  • screentshot:獲取當前頁面的截圖,這個方法只能在driver上使用,driver的對象類,是繼承自WebElement
相關文章
相關標籤/搜索