孤荷凌寒自學python第八十一天學習爬取圖片1

孤荷凌寒自學python第八十一天學習爬取圖片1python

 

(完整學習過程屏幕記錄視頻地址在文末)編程

 

經過前面十天的學習,我已經基本瞭解了經過requests模塊來與網站服務器進行交互的方法,也知道了BeautifulSoup模塊的基本用法。服務器

 

但以前的學習主要仍是獲取網頁上的文字內容爲主,從今天起我開始嘗試學習從網頁上獲取其中的圖片並下載到本地。cookie

 

 

1、首先加深了對requests模塊的認識網絡

找到了requests模塊的官方文檔:session

http://docs.python-requests.org/en/latest/user/quickstart/app

是全英文的。curl

而後又找到一篇比較詳盡的文章:編程語言

http://www.sharejs.com/codes/python/9013ide

 

2、嘗試了兩種下載圖片到本地的方法

 

(一)第一種

在經過requests模塊的get或post方法去訪問具體的url後獲取response數據後,經過response的content屬性的數據直接保存爲圖片。

參照的是博客文章:

http://www.javashuo.com/article/p-pvztvpqp-ks.html

謝謝博主的分享。

代碼以下:

```

#使用content的寫法,速度要慢得多

def downloadpicfirst():

    header={

        'cookie':'uuid_tt_dd=10_11685725060-1535977152139-368966; Hm_ct_6bcd52f51e9b3dce32bec4a3997715ac=1788*1*PC_VC; dc_session_id=10_1545396180085.288077; _ga=GA1.2.789896779.1545739300; ARK_ID=JS37a466e7e4ee36b9ce4ed9892df8d14337a4; smidV2=201809131456053120144ad460339bd628ba921ff129c3002a47323f76baa60; __yadk_uid=yBjJ76lx46GoRgyv8KgGxQV4FXAySfOr; firstDie=1; dc_tos=plj2dk; Hm_lvt_6bcd52f51e9b3dce32bec4a3997715ac=1547688865,1547815074,1547815726,1547815881; Hm_lpvt_6bcd52f51e9b3dce32bec4a3997715ac=1547815881; c-login-auto=60',

        'upgrade-insecure-requests':'1',

        'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'

    }

    strpicurl='https://img-blog.csdn.net/20170712075151071?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc21hbGxfYnJvdGhlcg==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast'

    r=requests.get(strpicurl,headers=header)

    r.raise_for_status() #raise異常自動拋出,若是讀取的Url服務器端返回400或500及後的錯誤,那麼,則會拋出異常後,再也不向後執行

    #下一句指定了讀取網頁時要使用的編碼格式

    r.encoding=r.apparent_encoding #requests的返回結果對象裏有個apparent_encoding函數, apparent_encoding經過調用chardet.detect()來識別文本編碼. 可是須要注意的是,這有些消耗計算資源.

    #r.encoding='utf-8'

    with open('1.jpg','wb') as f:

        f.write(r.content) #content屬性與text屬性不一樣

```

我只下載了一張圖片,但竟然花費了一分鐘,緣由不明。

 

(二)第二種

在requests模塊獲取指定url數據時,指定一個參數:

stream=True

表示,獲取回的數據變成數據流的模式.

而後直接將數據流保存爲文件。

具體代碼以下:

```

#使用流模式的寫法,速度快得多

def downloadpicsecond():

    header={

        'cookie':'uuid_tt_dd=10_11685725060-1535977152139-368966; Hm_ct_6bcd52f51e9b3dce32bec4a3997715ac=1788*1*PC_VC; dc_session_id=10_1545396180085.288077; _ga=GA1.2.789896779.1545739300; ARK_ID=JS37a466e7e4ee36b9ce4ed9892df8d14337a4; smidV2=201809131456053120144ad460339bd628ba921ff129c3002a47323f76baa60; __yadk_uid=yBjJ76lx46GoRgyv8KgGxQV4FXAySfOr; firstDie=1; dc_tos=plj2dk; Hm_lvt_6bcd52f51e9b3dce32bec4a3997715ac=1547688865,1547815074,1547815726,1547815881; Hm_lpvt_6bcd52f51e9b3dce32bec4a3997715ac=1547815881; c-login-auto=60',

        'upgrade-insecure-requests':'1',

        'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'

    }

    strpicurl='https://img-blog.csdn.net/20170712075151071?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc21hbGxfYnJvdGhlcg==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast'

    r=requests.get(strpicurl,headers=header,stream=True)

    r.raise_for_status() #raise異常自動拋出,若是讀取的Url服務器端返回400或500及後的錯誤,那麼,則會拋出異常後,再也不向後執行

    #流模式不須要指定編碼格式

    #下一行用意在於,在寫完流以後,自動關閉流

    with closing(requests.get(strpicurl,headers=header,stream=True)) as r:

        with open('1.jpg','wb') as f:

            #將流分紅n個部分寫入,每一個部分分紅128字節

            for chunk in r.iter_content(128):  #這一句vscode提示有錯,可是假的報錯,不影響實際執行

                f.write(chunk)

 

```

使用這種方法速度就正常了。

具體緣由還不清楚。

 

3、今天完整的測試代碼

import requests

from bs4 import BeautifulSoup

import re

import datetime

import pymongo

 

from contextlib import closing

 

from docx.shared import RGBColor #將三個數值生成色彩對象

 

import _mty

import _mf

import _mbs4

import _mmongo

import _mre

import _mdb

import _mword

 

intc=0

 

def msgbox(info,titletext='孤荷凌寒的DB模塊對話框QQ578652607',style=0,isShowErrMsg=False):

    return _mty.msgboxGhlh(info,titletext,style,isShowErrMsg)

 

#使用content的寫法,速度要慢得多

def downloadpicfirst():

    header={

        'cookie':'uuid_tt_dd=10_11685725060-1535977152139-368966; Hm_ct_6bcd52f51e9b3dce32bec4a3997715ac=1788*1*PC_VC; dc_session_id=10_1545396180085.288077; _ga=GA1.2.789896779.1545739300; ARK_ID=JS37a466e7e4ee36b9ce4ed9892df8d14337a4; smidV2=201809131456053120144ad460339bd628ba921ff129c3002a47323f76baa60; __yadk_uid=yBjJ76lx46GoRgyv8KgGxQV4FXAySfOr; firstDie=1; dc_tos=plj2dk; Hm_lvt_6bcd52f51e9b3dce32bec4a3997715ac=1547688865,1547815074,1547815726,1547815881; Hm_lpvt_6bcd52f51e9b3dce32bec4a3997715ac=1547815881; c-login-auto=60',

        'upgrade-insecure-requests':'1',

        'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'

    }

    strpicurl='https://img-blog.csdn.net/20170712075151071?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc21hbGxfYnJvdGhlcg==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast'

    r=requests.get(strpicurl,headers=header)

    r.raise_for_status() #raise異常自動拋出,若是讀取的Url服務器端返回400或500及後的錯誤,那麼,則會拋出異常後,再也不向後執行

    #下一句指定了讀取網頁時要使用的編碼格式

    r.encoding=r.apparent_encoding #requests的返回結果對象裏有個apparent_encoding函數, apparent_encoding經過調用chardet.detect()來識別文本編碼. 可是須要注意的是,這有些消耗計算資源.

    #r.encoding='utf-8'

    with open('1.jpg','wb') as f:

        f.write(r.content) #content屬性與text屬性不一樣

 

#使用流模式的寫法,速度快得多

def downloadpicsecond():

    header={

        'cookie':'uuid_tt_dd=10_11685725060-1535977152139-368966; Hm_ct_6bcd52f51e9b3dce32bec4a3997715ac=1788*1*PC_VC; dc_session_id=10_1545396180085.288077; _ga=GA1.2.789896779.1545739300; ARK_ID=JS37a466e7e4ee36b9ce4ed9892df8d14337a4; smidV2=201809131456053120144ad460339bd628ba921ff129c3002a47323f76baa60; __yadk_uid=yBjJ76lx46GoRgyv8KgGxQV4FXAySfOr; firstDie=1; dc_tos=plj2dk; Hm_lvt_6bcd52f51e9b3dce32bec4a3997715ac=1547688865,1547815074,1547815726,1547815881; Hm_lpvt_6bcd52f51e9b3dce32bec4a3997715ac=1547815881; c-login-auto=60',

        'upgrade-insecure-requests':'1',

        'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'

    }

    strpicurl='https://img-blog.csdn.net/20170712075151071?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc21hbGxfYnJvdGhlcg==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast'

    r=requests.get(strpicurl,headers=header,stream=True)

    r.raise_for_status() #raise異常自動拋出,若是讀取的Url服務器端返回400或500及後的錯誤,那麼,則會拋出異常後,再也不向後執行

    #流模式不須要指定編碼格式

    #下一行用意在於,在寫完流以後,自動關閉流

    with closing(requests.get(strpicurl,headers=header,stream=True)) as r:

        with open('1.jpg','wb') as f:

            #將流分紅n個部分寫入,每一個部分分紅128字節

            for chunk in r.iter_content(128):  #這一句vscode提示有錯,可是假的報錯,不影響實際執行

                f.write(chunk)

 

downloadpicsecond()

 

#downloadpicfirst()

 

 

 

——————————

今天整理的學習筆記完成,最後例行說明下個人自學思路:

根據過去多年我自學各類編程語言的經歷,認爲只有真正體驗式,解決實際問題式的學習纔會有真正的效果,即讓學習實際發生。在2004年的時候我開始在一個鄉村小學自學電腦 並學習vb6編程語言,沒有學習同伴,也沒有高師在上,甚至電腦都是孤島(鄉村那時尚未網絡),有的只是一本舊書,在痛苦的自學摸索中,我找到適應本身零基礎的學習方法:首先是每讀書的一小節就做相應的手寫筆記,第二步就是上機測試每個筆記內容是否實現,其中會發現書中講的其實有出入或錯誤,第三步就是在上機測試以後,將筆記改成電子版,造成最終的修訂好的正確無誤的學習筆記 。

經過反覆嘗試錯誤,在那個沒有分享與交流的黑暗時期我摸黑學會了VB6,爾後接觸了其它語言,也曾聽過付費視頻課程,結果發現也許本身學歷果真過低,就算是零基礎的入門課程,其實也難以跟上進度,講師的教學多數出現對初學者的實際狀況並不瞭解的狀況,何況學習者的個體也存在差別呢?固然更可怕的是收費課程的價格每每是本身難以承受的。

因而個人全部編程學習都改成了自學,繼續本身的三步學習筆記法的學習之路。

固然自學的最大問題是會走那麼多的彎路,沒有導師直接輸入式的教學來得直接,好在網絡給咱們帶來無限搜索的機會,你們在網絡上的學習日誌帶給咱們共享交流的機會,而QQ羣等交流平臺、網絡社區的成立,咱們能夠一塊兒自學,互相批評交流,也能夠得到更有效,更自主的自學成果。

因而我以人生已過半的年齡,決定繼續個人編程自學之路,開始學習python,只但願與你們共同交流,一我的的獨行是可怕的,只有一羣人的共同前進纔是有但願的。

誠摯期待您的交流分享批評指點!歡迎聯繫我加入從零開始的自學聯盟。

這個時代互聯網成爲了一種基礎設施的存在,因而原本在孤獨學習之路上的咱們變得再也不孤獨,由於網絡就是一個新的客廳,咱們時刻均可以進行沙龍活動。

很是樂意能與你們一塊兒交流本身自學心得和發現,更但願你們可以對我學習過程當中的錯誤給予指點——是的,這樣我就能有許多免費的高師了——這也是分享時代,社區時代帶來的好福利,我相信你們會的,是吧!

 

根據徹底共享的精神,開源互助的理念,個人我的自學錄製過程是所有按4K高清視頻錄製的,從手寫筆記到驗證手寫筆記的上機操做過程全程錄製,但由於4K高清文件太大均超過5G以上,因此沒法上傳至網絡,若有須要可聯繫我QQ578652607對傳,樂意分享。上傳分享到百度網盤的只是壓縮後的720P的視頻。

 

個人學習過程錄像百度盤地址分享以下:(清晰度:1280x720)

連接:https://pan.baidu.com/s/1UrZzTsAk2duMGhh0gcxw0w

提取碼:wbsg

 

Bilibili:

https://www.bilibili.com/video/av41235967/

 

喜馬拉雅語音筆記:

https://www.ximalaya.com/keji/19103006/156016081

相關文章
相關標籤/搜索