Python爬蟲之網頁圖片抓取

1、引入html

  這段時間一直在學習Python的東西,之前就據說Python爬蟲多厲害,正好如今學到這裏,跟着小甲魚的Python視頻寫了一個爬蟲程序,能實現簡單的網頁圖片下載。算法

2、代碼dom

__author__ = "JentZhang"

import urllib.request
import os
import random
import re


def url_open(url):
    '''
    打開網頁
    :param url:
    :return:
    '''
    req = urllib.request.Request(url)
    req.add_header('User-Agent',
                   'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.75 Safari/537.36')

    # 應用代理
    '''
    proxyies = ["111.155.116.237:8123","101.236.23.202:8866","122.114.31.177:808"]
    proxy = random.choice(proxyies)
    proxy_support = urllib.request.ProxyHandler({"http": proxy})
    opener = urllib.request.build_opener(proxy_support)
    urllib.request.install_opener(opener)
    '''

    response = urllib.request.urlopen(url)
    html = response.read()

    return html


def save_img(folder, img_addrs):
    '''
    保存圖片
    :param folder: 要保存的文件夾
    :param img_addrs: 圖片地址(列表)
    :return:
    '''
    # 建立文件夾用來存放圖片
    if not os.path.exists(folder):
        os.mkdir(folder)
    os.chdir(folder)
    for each in img_addrs:
        filename = each.split('/')[-1]
        try:
            with open(filename, 'wb') as f:
                img = url_open("http:" + each)
                f.write(img)
        except urllib.error.HTTPError as e:
            # print(e.reason)
            pass
    print('完畢!')


def find_imgs(url):
    '''
    獲取所有的圖片連接
    :param url: 鏈接地址
    :return: 圖片地址的列表
    '''
    html = url_open(url).decode("utf-8")
    img_addrs = re.findall(r'src="(.+?\.gif)', html)
    return img_addrs


def get_page(url):
    '''
    獲取當前一共有多少頁的圖片
    :param url: 網頁地址
    :return:
    '''
    html = url_open(url).decode('utf-8')
    a = html.find("current-comment-page") + 23
    b = html.find("]</span>", a)

    return html[a:b]


def download_mm(url="http://jandan.net/ooxx/", folder="OOXX", pages=1):
    '''
    主程序(下載圖片)
    :param folder:默認存放的文件夾
    :param pages: 下載的頁數
    :return:
    '''
    page_num = int(get_page(url))

    for i in range(pages):
        page_num -= i
        page_url = url + "page-" + str(page_num) + "#comments"
        img_addrs = find_imgs(page_url)
        save_img(folder, img_addrs)


if __name__ == "__main__":
    download_mm()

  

3、總結學習

  因爲代碼中訪問的網址已經運用了反爬蟲的算法。因此已經爬不到想要的圖片啦,so,就當是記了個爬蟲的筆記吧。僅供學習參考[捂臉]。。。。ui

  最後:我把jpg格式換成gif,還能爬到可憐的一張gif圖:url

  第一張正是反爬蟲機制的一個圖片佔位符,徹底沒有任何內容spa

相關文章
相關標籤/搜索