出現這些問題,不少時候是由於,忘記了機器上有兩個Python環境。python
默認環境是py2,而本身的工做環境是py3。linux
好比Linux上默認有py2.7,本身又安裝了py3.5。好比Windows上,安裝了py2,也安裝了py3。git
命令行直接輸入python、pip等使用的是默認是py2,應該切換到py3的bin目錄。github
再使用./pip 等形式來運行。windows
其實就應該用anaconda prompt窗口運行pip命令,就能避免這個問題。測試
一般咱們用下面這種方式安裝一個庫網站
C:\Users\Administrator>pip install tensorflow Collecting tensorflow Could not find a version that satisfies the requirement tensorflow (from versions: ) No matching distribution found for tensorflow
因而想到去網站上本身下載一個whl文件,再本地安裝。ui
或者spa
https://www.lfd.uci.edu/~gohlke/pythonlibs/
可選的文件就這有兩個,因而選擇了cp36的版本。
PS D:\ML> pip install .\tensorflow-1.7.0-cp36-cp36m-win_amd64.whl tensorflow-1.7.0-cp36-cp36m-win_amd64.whl is not a supported wheel on this platform.
可是也報錯,版本不匹配。因而搜索了下這個錯誤信息。
參考這篇文章:https://www.jianshu.com/p/dd8b4869d4fb
這個文件是amd64平臺的版本,顯然個人電腦不是。
下載之。
D:\>pip install tensorflow-1.7.0-cp36-cp36m-win32.whl tensorflow-1.7.0-cp36-cp36m-win32.whl is not a supported wheel on this platform.
仍是報錯,再換一種方式。
D:\>python Python 3.6.4 |Anaconda, Inc.| (default, Jan 16 2018, 10:22:32) [MSC v.1900 64 bit (AMD64)] on win32 >>> import tensorflow as tf D:\ProgramData\Anaconda3\lib\site-packages\h5py\__init__.py:36: FutureWarning: Conversion of the second argument of issubdtype from `float` to `np.floating` is deprecated. In future, it will be treated as `np.float64 == np.dtype(float).type`. from ._conv import register_converters as _register_converters >>> w = tf.Variable([[0.5,1.0]]) >>> x = tf.Variable([[2.0],[1.0]]) >>> y = tf.matmul(w,x) >>> y <tf.Tensor 'MatMul:0' shape=(1, 1) dtype=float32> >>>
上面的tensorflow裝在anaconda的py3.6環境。
上面爲何出現pip命令沒法安裝tensorflow呢?
本地安裝了原生的Python2.7,也安裝了anaconda3.6。
由於直接用pip命令,電腦默認是調用Python2.7的pip命令。要切換到anaconda目錄下,使用py3.6的pip命令(tensorflow只有py3的)。
D:\ProgramData\Anaconda3\Scripts> pip install jieba
優先用命令行pip安裝,由於使用方便。
有的包在anaconda導航裏搜索不到,可是用pip能夠安裝(好比jieba)。
用pip install pyspark
命令,在Windows上安裝成功,可是在linux上,每次都是到99%失敗。 (在Windows上用anaconda安裝pyspark,總是安裝不成功。)
linux上報錯信息
[root@txy bin]# pip install pyspark ## 【錯誤】若是直接用pip,調用的是系統默認的py2,而個人工做環境是py3。 Collecting pyspark Downloading https://files.pythonhosted.org/packages/ee/2f/709df6e8dc00624689aa0a11c7a4c06061a7d00037e370584b9f011df44c/pyspark-2.3.1.tar.gz (211.9MB) 99% |████████████████████████████████| 211.9MB 57.2MB/s eta 0:00:01Killed
Windows上的安裝過程提示
(base) C:\Users\Administrator>pip install pyspark Collecting pyspark Downloading https://files.pythonhosted.org/packages/ee/2f/709df6e8dc00624689aa0a11c7a4c06061a7d00037e370584b9f011df44c/pyspark-2.3.1.tar.gz (211.9MB) 100% |████████████████████████████████| 211.9MB 57kB/s Collecting py4j==0.10.7 (from pyspark) Downloading https://files.pythonhosted.org/packages/e3/53/c737818eb9a7dc32a7cd4f1396e787bd94200c3997c72c1dbe028587bd76/py4j-0.10.7-py2.py3-none-any.whl (197kB) 100% |████████████████████████████████| 204kB 1.1MB/s Building wheels for collected packages: pyspark Successfully installed py4j-0.10.7 pyspark-2.3.1
linux出現到99%失敗的緣由未知,不過我應該使用以下的安裝命令。
[root@txy bin]# cd /root/anaconda3/bin [root@txy bin]# ./pip install pyspark
下載Apache spark,解壓配置好PATH後,也可使用pyspark
,要注意環境是py2仍是py3。