爬蟲-批量獲取圖片

python版本:3.0html

使用庫: import urllib.request  #打開網頁的庫python

            import os                  #建立文件夾有關瀏覽器

程序做用:批量爬取煎蛋網上圖片app

 

視頻連接:連接:http://pan.baidu.com/s/1mhLBwWo 密碼:1n51框架

有一點與視頻不一樣:視頻中圖片連接爲http:打頭,實際煎蛋網目前沒有http:,會致使沒法識別網頁類型,不能正確下載,在保存是補上http:便可函數

 

基礎知識:網站

1.對於某個網站,網址通常是按順序編碼的好比:http://jandan.net/ooxx/編碼

使用瀏覽器的審查元素,能夠發現網址<a href="http://jandan.net/ooxx/page-2366#comments">url

2366 </a>spa

第一頁,第十頁,第二十頁改變的就是page-後面的數字,改變每次打開網頁的這個數字就能夠達到刷網頁的目的,你們能夠依次打開下面的網址,能夠發現其規律

http://jandan.net/ooxx/page-2366#comments

http://jandan.net/ooxx/page-2365#comments

http://jandan.net/ooxx/page-2364#comments

2.網頁上圖片點擊,能夠發現圖片的地址都有以下規律:

http://wx1.sinaimg.cn/mw600/005vbOHfgy1fd1ur0l6lbj31ao1y0nc8.jpg

http://wx1.sinaimg.cn/mw600/005vbOHfgy1fd1ur0l6lbj31ao1y0nc7.jpg

咱們能夠從一個網頁的代碼中篩選出這個格式的連接,利用python帶的函數下載便可

 

程序思路:批量獲取含有圖片的網頁,獲取網頁上包含的圖片連接,下載圖片

 

程序框架:

def test1(folder ='OOXX',pages=2):       //00XX爲文件夾,程序運行時將建立,pages爲抓取的網頁數
    os.mkdir(folder)  #建立文件夾
    os.chdir(folder)  
    url="http://jandan.net/ooxx/"       //要抓取的網頁
    page_num=int(get_page(url))         //獲取第一個網址

    for i in range(pages):              
        page_num -=i        
        page_url= url +'page-' +str(page_num) +'#comments'   //批量獲取網址
        img_addrs = find_imgs(page_url)    //獲取圖片連接
        save_imgs(folder,img_addrs)       //保存圖片
if __name__=='__main__':
        test1()

完整代碼:

import urllib.request     #打開網頁的庫
import os                 #建立文件夾有關


def url_open(url):        #打開網頁
    req=urllib.request.Request(url)     #
    req.add_header('User-Agent','Mozilla/5.0 (Windows; U; Windows NT 5.2) AppleWebKit/525.13 (KHTML, like Gecko) Chrome/0.2.149.27 Safari/525.13 ')     #看起來像瀏覽器訪問
    response = urllib.request.urlopen(url)
    html = response.read()
    print(url)
    return html

def get_page(url):             
    html=url_open(url).decode('utf-8')  #解碼
    a=html.find('current-comment-page')+23
    b=html.find(']',a)
    return html[a:b]
   
   


def find_imgs(url):        #尋找圖片地址
    html=url_open(url).decode('utf-8')
    img_addrs=[]
    a=html.find('img src=')
    while a!=-1:
        
        b =  html.find('.jpg',a,a+255)       #找不到返回-1,255限定結束範圍
        if b!=-1:                            #找到了
            img_addrs.append('http:'+html[a+9:b+4])  #列表添加地址  實際地址缺乏http:  
        else:
            b=a+9
        a=html.find('img src=',b)
    for each in img_addrs:
        print(each)
    return img_addrs
def save_imgs(folder,img_addrs):             #保存圖片
    for each in img_addrs:
        filename =  each.split('/')[-1]
        with open(filename,'wb') as f:
            img = url_open(each)
            f.write(img)

def test1(folder ='OOXX',pages=2):
    os.mkdir(folder)  #建立文件夾
    os.chdir(folder)
    url="http://jandan.net/ooxx/"
    page_num=int(get_page(url))

    for i in range(pages):
        page_num -=i        
        page_url= url +'page-' +str(page_num) +'#comments'
        img_addrs = find_imgs(page_url)
        save_imgs(folder,img_addrs)
if __name__=='__main__':
        test1()
相關文章
相關標籤/搜索