一個python爬蟲小程序

原由

深夜突然想下載一點電子書來擴充一下kindle,就想起來python學得太淺,什麼「裝飾器」啊、「多線程」啊都沒有學到。html

想到廖雪峯大神的python教程很經典、很著名。就想找找有木有pdf版的下載,結果竟然沒找到!!CSDN有個不完整的還騙走了我一個積分!!尼瑪!!python

怒了,準備寫個程序直接去爬廖雪峯的教程,而後再html轉成電子書。git

過程

過程頗有趣呢,用淺薄的python知識,寫python程序,去爬python教程,來學習python。想一想有點小激動……github

果真python非常方便,50行左右就OK了。直接貼代碼:小程序

# coding:utf-8
import urllib

domain = 'http://www.liaoxuefeng.com'           #廖雪峯的域名
path = r'C:\Users\cyhhao2013\Desktop\temp\\'    #html要保存的路徑

# 一個html的頭文件
input = open(r'C:\Users\cyhhao2013\Desktop\0.html', 'r')
head = input.read()

# 打開python教程主界面
f = urllib.urlopen("http://www.liaoxuefeng.com/wiki/001374738125095c955c1e6d8bb493182103fac9270762a000")
home = f.read()
f.close()

# 替換全部空格回車(這樣容易好獲取url)
geturl = home.replace("\n", "")
geturl = geturl.replace(" ", "")

# 獲得包含url的字符串
list = geturl.split(r'em;"><ahref="')[1:]

# 強迫症犯了,必定要把第一個頁面也加進去才完美
list.insert(0, '/wiki/001374738125095c955c1e6d8bb493182103fac9270762a000">')

# 開始遍歷url List
for li in list:
    url = li.split(r'">')[0]
    url = domain + url              #拼湊url
    print url
    f = urllib.urlopen(url)
    html = f.read()

    # 得到title爲了寫文件名
    title = html.split("<title>")[1]
    title = title.split(" - 廖雪峯的官方網站</title>")[0]

    # 要轉一下碼,否則加到路徑裏就悲劇了
    title = title.decode('utf-8').replace("/", " ")

    # 截取正文
    html = html.split(r'<!-- block main -->')[1]
    html = html.split(r'<h4>您的支持是做者寫做最大的動力!</h4>')[0]
    html = html.replace(r'src="', 'src="' + domain)

    # 加上頭和尾組成完整的html
    html = head + html+"</body></html>"

    # 輸出文件
    output = open(path + "%d" % list.index(li) + title + '.html', 'w')
    output.write(html)
    output.close()

 

簡直,人生苦短我用python啊!多線程

最後

附上HTML轉epub電子書格式在線連接:html.toepub.compython爬蟲

以及廖雪峯的教程:連接 廖雪峯的Git教程也很是很是的不錯哦~dom

順便擴充一下本身的→_→GitHub(爬下來的html也在github上哦~)學習

以及我的博客:http://blog.zhusun.in網站

原文來自:一個python爬蟲小程序

 

by:cyhhao http://blog.zhusun.in

相關文章
相關標籤/搜索