sudo mkdir /usr/lib/jvm
sudo tar zxvf jdk-8u40-linux-i586.tar.gz -C /usr/lib/jvm
cd /usr/lib/jvm
而後爲了方便改個名字
sudo mv jdk1.8.0_40 javajava
sudo gedit ~/.bashrc
加入如下設置python
export JAVA_HOME=/usr/lib/jvm/java export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH
使之生效:linux
source ~/.bashrc
tar -xzf spark-1.2.0-bin-hadoop2.4.tgz
而後其實這個時候spark的python模式就能夠使用了。只要cd進去運行bin目錄下的pyspark就能夠了。可是咱們下面要作的就是連接和選擇一個好些的位置存放文件bash
先把文件歲半換個地方放oracle
sudo mv spark-1.2.1-bin-hadoop2.4 /srv/
而後設個連接jvm
sudo ln -s /srv/spark-1.2.1-bin-hadoop2.4/ /srv/spark
再修改下~/.bash_profile就能夠了oop
export SPARK_HOME=/srv/sparkexport PATH=$SPARK_HOME/bin:$PATH
命令行直接執行pyspark
網站