Ruby中爬蟲的實現

Ruby中實現網頁抓取,通常用的是mechanize,使用很是簡單。 ruby

  1.  安裝
    sudo gem install mechanize
  2. 抓取網頁   
    require 'rubygems' 
    require 'mechanize' 
    agent = Mechanize.new 
    page = agent.get('http://google.com/')
  3. 模擬點擊事件
    page = agent.page.link_with(:text => 'News').click
  4. 模擬表單提交

    google_form = page.form('f')
    google_form["q"] = 'ruby mechanize' 
    page = agent.submit(google_form, google_form.buttons.first)
    pp page

  5. 分析頁面,mechanize用的是nokogiri解析網頁的,因此能夠參照nokogiri的文檔
    table = page.search('a')
    text = table.inner_text
    puts text

  有幾點注意的地方: cookie

  1. 若是須要先登陸的網頁,那麼能夠在網站先登陸,登陸後記錄JSESSIONID,而後賦值給agent
    cookie = Mechanize::Cookie.new("JSESSIONID", "BA58528B76124698AD033EE6DF12B986:-1")
    cookie.domain = "datamirror.csdb.cn" 
    cookie.path = "/" 
    agent.cookie_jar.add!(cookie)
  2. 若是須要保存網頁,使用.save_as,(或許save也能夠,我沒試過)例如 dom

    agent.get("http://google.com").save_as
相關文章
相關標籤/搜索