關於scrapy中scrapy.Request中的屬性

一.源碼

def __init__(self, url, callback=None, method='GET', headers=None, body=None,
                 cookies=None, meta=None, encoding='utf-8', priority=0,
                 dont_filter=False, errback=None, flags=None):

一.url(必須)

填寫的參數:請求的地址python

數據類型:strjson

二.callback

填寫的參數:響應返回的回調函數(必須是類當中或者父類當中的方法),默認爲parse方法cookie

數據類型:strscrapy

三.method

填寫的參數:請求的方式函數

數據類型:strpost

四.headers

填寫的參數:請求頭編碼

數據類型:dicturl

五.meta

填寫的參數:我是這樣理解的理解成傳輸時候一個相似容器的東西指針

數據類型:dictcode

response.meta['key']能夠得到設置的value

六.dont_filter

填寫的參數:代表該請求不禁調度器過濾。這是當你想使用屢次執行相同的請求,忽略重複的過濾器。默認爲False.

數據類型:bool

七.encoding

填寫的參數:編碼格式

數據類型:str

八.errback

填寫的參數:響應返回的錯誤的回調函數(必須是類當中或者父類當中的方法)默認返回'dealerr'方法

數據類型:dict

九.body補充點post參數提交

方法一.

scrapy.FormRequest(url=url,formdata=formdata)
#這裏的formdata是dict格式的,裏面不能存在數字,若是有數字用引號括起來;

方法二.

scrapy.Request(url=url,method="POST",body=formdata)
#這裏的formdata必須得是字符串,若是是表單格式,那麼須要用json.dumps()轉爲字符串格式;

十.priority和flags(我沒怎麼用資料都是網上的)

priority是優先級,(默認爲0,越大優先級越大),實際應用中我沒用過.

flags網上說指針,我沒怎麼用,也沒深究,若是有知道的人歡迎補充

相關文章
相關標籤/搜索