爬蟲+正向代理,30+行代碼我爬取了[鏈家]3000+條數據

北京這麼大,總有一套房子適合本身;html

1、選擇目標網站:

鏈[lian]家[jia]:https://bj.lianjia.com/
爬蟲+正向代理,30+行代碼我爬取了[鏈家]3000+條數據
點擊【租房】,進入租房首頁:
爬蟲+正向代理,30+行代碼我爬取了[鏈家]3000+條數據
這就是要爬取的首頁了;python

2、先爬取一頁

一、分析頁面
右擊一個房源的連接,點擊[檢查],如圖:
爬蟲+正向代理,30+行代碼我爬取了[鏈家]3000+條數據
進入開發者模式,
此時能夠看到 a 標籤中的連接:
爬蟲+正向代理,30+行代碼我爬取了[鏈家]3000+條數據
使用 xpath 就能夠把連接提取出來,不過該連接是真實 url 的後半段,須要進行字符串拼接才能獲取到真正的 url;
爬蟲+正向代理,30+行代碼我爬取了[鏈家]3000+條數據
後面會在代碼中體現;
爬取的信息暫且只對下圖中標出的進行爬取:
爬蟲+正向代理,30+行代碼我爬取了[鏈家]3000+條數據
包括 標題、時間、價格、房間格局、面積 ;數據庫

3、對所有頁面進行爬取

一、分析頁面 url
爬蟲+正向代理,30+行代碼我爬取了[鏈家]3000+條數據
點擊租房,找到其跳轉到的網頁:https://bj.lianjia.com/zufang/
對,這就是要爬取的首頁:
爬蟲+正向代理,30+行代碼我爬取了[鏈家]3000+條數據
咱們往下拉到最底端,點擊下一頁或者其餘頁,
第 1 頁:https://bj.lianjia.com/zufang/pg1/#contentList
第 2 也:https://bj.lianjia.com/zufang/pg2/#contentList
第 3 頁:https://bj.lianjia.com/zufang/pg3/#contentList
.
.
.
第 100 頁:https://bj.lianjia.com/zufang/pg100/#contentListide

經過觀察 url 能夠發現規律:每一頁只有 pg 後面的數字在變,且與頁數相同;
拼接字符串後使用一個循環便可對全部頁面進行爬取;函數

4、源碼

開發工具:pycharm
python版本:3.7.2工具

import requests
from lxml import etree

#編寫了一個經常使用的方法,輸入url便可返回text的文本;
def get_one_page(url):
    headers = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36',
    }
    response = requests.get(url,headers=headers)
    response.encoding = 'utf-8'
    if response.status_code == 200:
        return response.text
    else:
        print("請求狀態碼 != 200,url錯誤.")
        return None

for number in range(0,101):     #利用range函數循環0-100,抓去第1頁到100頁。
    initialize_url = "https://bj.lianjia.com/zufang/pg" + str(number) + "/#contentList"     #字符串拼接出第1頁到100頁的url;

    html_result = get_one_page(initialize_url)  #獲取URL的text文本
    html_xpath = etree.HTML(html_result)        #轉換成xpath格式
    #抓去首頁中的url(每頁有30條房源信息)
    page_url = html_xpath.xpath("//div[@class='content w1150']/div[@class='content__article']//div[@class='content__list']/div/a[@class='content__list--item--aside']/@href")

    for i in page_url:      #循環每一條房源url
        true_url = "https://bj.lianjia.com" + i     #獲取房源的詳情頁面url
        true_html = get_one_page(true_url)      #獲取text文本
        true_xpath = etree.HTML(true_html)      #轉換成xpath格式

        #抓取頁面題目,即:房源詳情頁的標題
        title = true_xpath.xpath("//div[@class='content clear w1150']/p[@class='content__title']//text()")
        #抓取發佈時間並對字符串進行分割處理
        release_date = true_xpath.xpath("//div[@class='content clear w1150']//div[@class='content__subtitle']//text()")
        release_date_result = str(release_date[2]).strip().split(":")[1]
        #抓取價格
        price = true_xpath.xpath("//div[@class='content clear w1150']//p[@class='content__aside--title']/span//text()")
        #抓取房間樣式
        house_type = true_xpath.xpath("//div[@class='content clear w1150']//ul[@class='content__aside__list']//span[2]//text()")
        #抓取房間面積
        acreage = true_xpath.xpath("//div[@class='content clear w1150']//ul[@class='content__aside__list']//span[3]//text()")

        print(str(title) + " --- " + str(release_date_result) + " --- " + str(price) + " --- " + str(house_type) + " --- " + str(acreage))

        #寫入操做,將信息寫入一個text文本中
        with open(r"E:\admin.txt",'a') as f:
            f.write(str(title) + " --- " + str(release_date_result) + " --- " + str(price) + " --- " + str(house_type) + " --- " + str(acreage) + "\n")

最後將爬取的信息一邊輸出一邊寫入文本;固然也能夠直接寫入 JSON 文件或者直接存入數據庫;
開心就好。開發工具

相關文章
相關標籤/搜索