Windows virtualenv下安裝Scrapy的各類依賴

    Scrapy依賴的Openssl、libxml在Windows各類麻煩,先照着Scrapy官方安裝教程解決Openssl依賴,而後依據pip install Scrapy命令的出錯提示再安裝幾個包的Windows版本,去包的官網下或Pypi找。
    一句話,Scrapy這貨本身是不大,但其依賴的東西好多。 shell

    

    Scrapy安裝總結:
    這貨依賴以下包,沒列出依賴的依賴:      編輯器

Scrapy==0.16.5
Twisted==13.1.0
lxml==3.0.1
pyOpenSSL==0.13
w3lib==1.3
zope.interface==4.0.5

    因在virtualenv環境下安裝,其中lxml下載的只有exe格式,安裝時不能選擇安裝在哪一個Python環境下,因此先安裝到主Python環境下,而後site-package下把lxml兩個文件copy到virtualenv對應目錄下完成安裝。其它如pyOpenSSL有提供msi文件,安裝時可選擇安裝在哪一個Python環境下,至關不錯。
    固然還有終極方法,就是下載源碼,而後用easy_install安裝,加--complie=MinW之類的編輯器參數,在此先這樣了。
工具

    2013.07.12更新:
    原來exe格式的二進制除了雙擊安裝外,能夠在cmd下安裝,這樣就可以安裝在virtualenv下了。方法是:首先激活某個virtualenv,而後esay_install *.exe,這個便捷。如今終於理解virtualenv的強大了,能夠幾乎不影響系統環境變量而創建多個隔離的Python環境。exe格式竟然可以同時圖形與命令行兩種方式下運行,怎麼解釋?
    附上一張Python 4種安裝工具關係圖:
spa

相關文章
相關標籤/搜索