本文主要內容:以最短的時間寫一個最簡單的爬蟲,能夠抓取論壇的帖子標題和帖子內容。html
本文受衆:沒寫過爬蟲的萌新。python
須要準備的東西: Python、scrapy、一個IDE或者隨便什麼文本編輯工具。git
隨便建一個工做目錄,而後用命令行創建一個工程,工程名爲miao,能夠替換爲你喜歡的名字。github
1
|
scrapy startproject miao
|
隨後你會獲得以下的一個由scrapy建立的目錄結構
web
在spiders文件夾中建立一個python文件,好比miao.py,來做爲爬蟲的腳本。
內容以下:chrome
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
import scrapy
class NgaSpider(scrapy.Spider):
name = "NgaSpider"
host = "http://bbs.ngacn.cc/"
# start_urls是咱們準備爬的初始頁
start_urls = [
"http://bbs.ngacn.cc/thread.php?fid=406",
]
# 這個是解析函數,若是不特別指明的話,scrapy抓回來的頁面會由這個函數進行解析。
# 對頁面的處理和分析工做都在此進行,這個示例裏咱們只是簡單地把頁面內容打印出來。
def parse(self, response):
print response.body
|
若是用命令行的話就這樣:數據庫
1
2
|
cd miao
scrapy crawl NgaSpider
|
你能夠看到爬蟲君已經把你壇星際區第一頁打印出來了,固然因爲沒有任何處理,因此混雜着html標籤和js腳本都一併打印出來了。瀏覽器
接下來咱們要把剛剛抓下來的頁面進行分析,從這坨html和js堆裏把這一頁的帖子標題提煉出來。
其實解析頁面是個體力活,方法多的是,這裏只介紹xpath。架構
看一下剛纔抓下來的那坨東西,或者用chrome瀏覽器手動打開那個頁面而後按F12能夠看到頁面結構。
每一個標題其實都是由這麼一個html標籤包裹着的。舉個例子:
1
|
<a id="t_tt1_33" class="topic" href="/read.php?tid=10803874">[合做模式] 合做模式修改設想</a>
|
能夠看到href就是這個帖子的地址(固然前面要拼上論壇地址),而這個標籤包裹的內容就是帖子的標題了。
因而咱們用xpath的絕對定位方法,把class='topic'
的部分摘出來。
在最上面加上引用:
1
|
from scrapy import Selector
|
把parse函數改爲:
1
2
3
4
5
6
7
8
9
10
11
12
13
|
def parse(self, response):
selector = Selector(response)
# 在此,xpath會將全部class=topic的標籤提取出來,固然這是個list
# 這個list裏的每個元素都是咱們要找的html標籤
content_list = selector.xpath("//*[@class='topic']")
# 遍歷這個list,處理每個標籤
for content in content_list:
# 此處解析標籤,提取出咱們須要的帖子標題。
topic = content.xpath('string(.)').extract_first()
print topic
# 此處提取出帖子的url地址。
url = self.host + content.xpath('@href').extract_first()
print url
|
再次運行就能夠看到輸出你壇星際區第一頁全部帖子的標題和url了。
接下來咱們要抓取每個帖子的內容。
這裏須要用到python的yield。
1
|
yield Request(url=url, callback=self.parse_topic)
|
此處會告訴scrapy去抓取這個url,而後把抓回來的頁面用指定的parse_topic函數進行解析。
至此咱們須要定義一個新的函數來分析一個帖子裏的內容。
完整的代碼以下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
|
import scrapy
from scrapy import Selector
from scrapy import Request
class NgaSpider(scrapy.Spider):
name = "NgaSpider"
host = "http://bbs.ngacn.cc/"
# 這個例子中只指定了一個頁面做爲爬取的起始url
# 固然從數據庫或者文件或者什麼其餘地方讀取起始url也是能夠的
start_urls = [
"http://bbs.ngacn.cc/thread.php?fid=406",
]
# 爬蟲的入口,能夠在此進行一些初始化工做,好比從某個文件或者數據庫讀入起始url
def start_requests(self):
for url in self.start_urls:
# 此處將起始url加入scrapy的待爬取隊列,並指定解析函數
# scrapy會自行調度,並訪問該url而後把內容拿回來
yield Request(url=url, callback=self.parse_page)
# 版面解析函數,解析一個版面上的帖子的標題和地址
def parse_page(self, response):
selector = Selector(response)
content_list = selector.xpath("//*[@class='topic']")
for content in content_list:
topic = content.xpath('string(.)').extract_first()
print topic
url = self.host + content.xpath('@href').extract_first()
print url
# 此處,將解析出的帖子地址加入待爬取隊列,並指定解析函數
yield Request(url=url, callback=self.parse_topic)
# 能夠在此處解析翻頁信息,從而實現爬取版區的多個頁面
# 帖子的解析函數,解析一個帖子的每一樓的內容
def parse_topic(self, response):
selector = Selector(response)
content_list = selector.xpath("//*[@class='postcontent ubbcode']")
for content in content_list:
content = content.xpath('string(.)').extract_first()
print content
# 能夠在此處解析翻頁信息,從而實現爬取帖子的多個頁面
|
到此爲止,這個爬蟲能夠爬取你壇第一頁全部的帖子的標題,並爬取每一個帖子裏第一頁的每一層樓的內容。
爬取多個頁面的原理相同,注意解析翻頁的url地址、設定終止條件、指定好對應的頁面解析函數便可。
此處是對已抓取、解析後的內容的處理,能夠經過管道寫入本地文件、數據庫。
在miao文件夾中建立一個items.py文件。
1
2
3
4
5
6
7
8
9
10
11
12
|
from scrapy import Item, Field
class TopicItem(Item):
url = Field()
title = Field()
author = Field()
class ContentItem(Item):
url = Field()
content = Field()
author = Field()
|
此處咱們定義了兩個簡單的class來描述咱們爬取的結果。
在miao文件夾下面找到那個pipelines.py文件,scrapy以前應該已經自動生成好了。
咱們能夠在此建一個處理方法。
1
2
3
4
5
6
7
8
9
10
11
12
|
class FilePipeline(object):
## 爬蟲的分析結果都會由scrapy交給此函數處理
def process_item(self, item, spider):
if isinstance(item, TopicItem):
## 在此可進行文件寫入、數據庫寫入等操做
pass
if isinstance(item, ContentItem):
## 在此可進行文件寫入、數據庫寫入等操做
pass
## ...
return item
|
要調用這個方法咱們只需在爬蟲中調用便可,例如原先的內容處理函數可改成:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
def parse_topic(self, response):
selector = Selector(response)
content_list = selector.xpath("//*[@class='postcontent ubbcode']")
for content in content_list:
content = content.xpath('string(.)').extract_first()
## 以上是原內容
## 建立個ContentItem對象把咱們爬取的東西放進去
item = ContentItem()
item["url"] = response.url
item["content"] = content
item["author"] = "" ## 略
## 這樣調用就能夠了
## scrapy會把這個item交給咱們剛剛寫的FilePipeline來處理
yield item
|
找到settings.py文件,在裏面加入
1
2
3
|
ITEM_PIPELINES = {
'miao.pipelines.FilePipeline': 400,
}
|
這樣在爬蟲裏調用
1
|
yield item
|
的時候都會由經這個FilePipeline來處理。後面的數字400表示的是優先級。
能夠在此配置多個Pipeline,scrapy會根據優先級,把item依次交給各個item來處理,每一個處理完的結果會傳遞給下一個pipeline來處理。
能夠這樣配置多個pipeline:
1
2
3
4
5
6
7
|
ITEM_PIPELINES = {
'miao.pipelines.Pipeline00': 400,
'miao.pipelines.Pipeline01': 401,
'miao.pipelines.Pipeline02': 402,
'miao.pipelines.Pipeline03': 403,
## ...
}
|
經過Middleware咱們能夠對請求信息做出一些修改,好比經常使用的設置UA、代理、登陸信息等等均可以經過Middleware來配置。
與pipeline的配置相似,在setting.py中加入Middleware的名字,例如
1
2
3
4
|
DOWNLOADER_MIDDLEWARES = {
"miao.middleware.UserAgentMiddleware": 401,
"miao.middleware.ProxyMiddleware": 402,
}
|
某些網站不帶UA是不讓訪問的。
在miao文件夾下面創建一個middleware.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
|
import random
agents = [
"Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/532.5 (KHTML, like Gecko) Chrome/4.0.249.0 Safari/532.5",
"Mozilla/5.0 (Windows; U; Windows NT 5.2; en-US) AppleWebKit/532.9 (KHTML, like Gecko) Chrome/5.0.310.0 Safari/532.9",
"Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US) AppleWebKit/534.7 (KHTML, like Gecko) Chrome/7.0.514.0 Safari/534.7",
"Mozilla/5.0 (Windows; U; Windows NT 6.0; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.601.0 Safari/534.14",
"Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/10.0.601.0 Safari/534.14",
"Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.20 (KHTML, like Gecko) Chrome/11.0.672.2 Safari/534.20",
"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.27 (KHTML, like Gecko) Chrome/12.0.712.0 Safari/534.27",
"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.24 Safari/535.1",
]
class UserAgentMiddleware(object):
def process_request(self, request, spider):
agent = random.choice(agents)
request.headers["User-Agent"] = agent
|
這裏就是一個簡單的隨機更換UA的中間件,agents的內容能夠自行擴充。
好比本地127.0.0.1開啓了一個8123端口的代理,一樣能夠經過中間件配置讓爬蟲經過這個代理來對目標網站進行爬取。
一樣在middleware.py中加入:
1
2
3
4
5
6
7
|
class ProxyMiddleware(object):
def process_request(self, request, spider):
# 此處填寫你本身的代理
# 若是是買的代理的話能夠去用API獲取代理列表而後隨機選擇一個
proxy = "http://127.0.0.1:8123"
request.meta["proxy"] = proxy
|
不少網站會對訪問次數進行限制,若是訪問頻率太高的話會臨時禁封IP。
若是須要的話能夠從網上購買IP,通常服務商會提供一個API來獲取當前可用的IP池,選一個填到這裏就好。
在settings.py中的一些經常使用配置
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
# 間隔時間,單位秒。指明scrapy每兩個請求之間的間隔。
DOWNLOAD_DELAY = 5
# 當訪問異常時是否進行重試
RETRY_ENABLED = True
# 當遇到如下http狀態碼時進行重試
RETRY_HTTP_CODES = [500, 502, 503, 504, 400, 403, 404, 408]
# 重試次數
RETRY_TIMES = 5
# Pipeline的併發數。同時最多能夠有多少個Pipeline來處理item
CONCURRENT_ITEMS = 200
# 併發請求的最大數
CONCURRENT_REQUESTS = 100
# 對一個網站的最大併發數
CONCURRENT_REQUESTS_PER_DOMAIN = 50
# 對一個IP的最大併發數
CONCURRENT_REQUESTS_PER_IP = 50
|
若是非要用Pycharm做爲開發調試工具的話能夠在運行配置裏進行以下配置:
Configuration頁面:
Script填你的scrapy的cmdline.py路徑,好比個人是
1
|
/usr/local/lib/python2.7/dist-packages/scrapy/cmdline.py
|
而後在Scrpit parameters中填爬蟲的名字,本例中即爲:
1
|
crawl NgaSpider
|
最後是Working diretory,找到你的settings.py文件,填這個文件所在的目錄。
示例:
按小綠箭頭就能夠愉快地調試了。
這裏提供了對scrapy很是詳細的介紹。
http://scrapy-chs.readthedocs…
如下是幾個比較重要的地方:
scrapy的架構:
http://scrapy-chs.readthedocs…
xpath語法:
http://www.w3school.com.cn/xp…
Pipeline管道配置:
http://scrapy-chs.readthedocs…
Middleware中間件的配置:
http://scrapy-chs.readthedocs…
settings.py的配置:
http://scrapy-chs.readthedocs…