本人使用的python3.6.2版本的:
初次使用報了一堆錯,具體以下:html
1.pip install Pillow會報超時:
解決方案:須要加上超時控制:pip --default-timeout=100 install -U Pillow
2.pip install BeautifulSoup報print的錯:
解決方案:加上版本:pip install BeautifulSoup4便可
3.使用BeautifulSoup(r,'xml')報錯:
bs4.FeatureNotFound: Couldn't find a tree builder with the features you requested: lxml. Do you need to install a parser library?
解決辦法:(轉載的)
幾經周折才知道是bs4調用了python自帶的html解析器,我用的mac,默認安裝的是python2,因此內置的解釋器也是捆綁在python2上,而我學習的時候又本身安裝了python3,開發環境也是python3的,貌似是沒有html解釋器,因此會報錯。
問題找到了,那麼怎麼解決呢?對,在python3也裝一個html解析器就行了,那麼怎麼安裝呢?查閱資料獲悉:通常pip和pip2對應的是python2.x,pip3對應的是python3.x的版本,python2和python3的模塊是獨立的,不能混用,混用會出問題。因此命令行經過python3的pip:pip3 安裝解析器:
3.8M,稍等片刻便可
再次運行項目,完美解決,特此記錄
第一個解決方法:python
你去下載一個chromedriver而後放在指定文件夾而且加入PATH環境變量。結果是,我把chromedriver放進了chrome的文件夾,而且把那個文件夾加入了環境變量,而後不能用。chrome
第二種解決方法:python3.x
直接把chromedriver.exe放到你運行.py程序的下面(也就是工做目錄下)。就能夠了。app
參考的網址:http://blog.csdn.net/hacklyc/article/details/65445722學習
5.python輸出csv文件亂碼:
代碼以下:
import requests
from bs4 import BeautifulSoup
soup = BeautifulSoup(r, 'lxml')
pattern = soup.find_all('p', 'comment-content')
for item in pattern:
print(item.string)
import pandas
comments = []
for item in pattern:
comments.append(item.string)
df = pandas.DataFrame(comments)
df.to_csv('comments.csv')
解決辦法:在代碼最後一句加上encoding
df.to_csv('comments.csv',encoding='utf_8_sig')