Python採集實例1

目標是把http://www.gg4493.cn/主頁上全部數據爬取下來,得到每一篇新聞的名稱、時間、來源以及正文。
接下來分解目標,一步一步地作。
步驟1:將主頁上全部連接爬取出來,寫到文件裏。
python在獲取html方面十分方便,寥寥數行代碼就能夠實現咱們須要的功能。
複製代碼代碼以下:
def getHtml(url):
     page = urllib.urlopen(url)
     html = page.read()
     page.close()
     return html
咱們都知道html連接的標籤是「a」,連接的屬性是「href」,也就是要得到html中全部tag=a,attrs=href 值。
查閱了資料,一開始我打算用HTMLParser,並且也寫出來了。可是它有一個問題,就是遇到中文字符的時候沒法處理。
複製代碼代碼以下:


 class parser(HTMLParser.HTMLParser):
     def handle_starttag(self, tag, attrs):
             if tag == 'a':
             for attr, value in attrs:
                 if attr == 'href':
                     print value


後來使用了SGMLParser,它就沒有這個問題。
複製代碼代碼以下:


class URLParser(SGMLParser):       
        def reset(self):
                SGMLParser.reset(self)
                self.urls = []
 
        def start_a(self,attrs):        
                href = [v for k,v in attrs if k=='href']          
                if href:
                        self.urls.extend(href)
SGMLParser針對某個標籤都須要重載它的函數,這裏是把全部的連接放到該類的urls裏。
複製代碼代碼以下:


lParser = URLParser()#分析器來的
socket = urllib.urlopen("http://www.gg4493.cn/")#打開這個網頁
fout = file('urls.txt', 'w')#要把連接寫到這個文件裏
lParser.feed(socket.read())#分析啦
reg = 'http://www.gg4493.cn/.*'#這個是用來匹配符合條件的連接,使用正則表達式匹配
pattern = re.compile(reg)
for url in lParser.urls:#連接都存在urls裏
    if pattern.match(url):
        fout.write(url+'\n')
fout.close()html

相關文章
相關標籤/搜索