spark學習筆記-hive0.13搭建(4)

安裝hive包java

一、將apache-hive-0.13.1-bin.tar.gz使用WinSCP上傳到spark1的/usr/local目錄下。mysql

二、解壓縮hive安裝包:tar -zxvf apache-hive-0.13.1-bin.tar.gz。sql

三、重命名hive目錄:mv apache-hive-0.13.1-bin hive數據庫

四、配置hive相關的環境變量 vi .bashrc export HIVE_HOME=/usr/local/hive export PATH=$HIVE_HOME/bin source .bashrcapache

安裝mysqlbash

 1 1、在spark1上安裝mysql。
 2 2、使用yum安裝mysql server。
 3 yum install -y mysql-server
 4 service mysqld start
 5 chkconfig mysqld on
 6 3、使用yum安裝mysql connector
 7 yum install -y mysql-connector-java
 8 4、將mysql connector拷貝到hive的lib包中
 9 cp /usr/share/java/mysql-connector-java-5.1.17.jar /usr/local/hive/lib
10 輸入mysql登錄
11 5、在mysql上建立hive元數據庫,並對hive進行受權
12 create database if not exists hive_metadata;
13 grant all privileges on hive_metadata.* to 'hive'@'%' identified by 'hive';
14 grant all privileges on hive_metadata.* to 'hive'@'localhost' identified by 'hive';
15 grant all privileges on hive_metadata.* to 'hive'@'spark1' identified by 'hive';
16 flush privileges;
17 use hive_metadata;

配置hive-site.xmlide

 1 mv hive-default.xml.template hive-site.xml
 2 vi hive-site.xml
 3 <property>
 4   <name>javax.jdo.option.ConnectionURL</name>
 5   <value>jdbc:mysql://spark1:3306/hive_metadata?createDatabaseIfNotExist=true</value>
 6 </property>
 7 <property>
 8   <name>javax.jdo.option.ConnectionDriverName</name>
 9   <value>com.mysql.jdbc.Driver</value>
10 </property>
11 <property>
12   <name>javax.jdo.option.ConnectionUserName</name>
13   <value>hive</value>
14 </property>
15 <property>
16   <name>javax.jdo.option.ConnectionPassword</name>
17   <value>hive</value>
18 </property>
19 <property>
20   <name>hive.metastore.warehouse.dir</name>
21   <value>/user/hive/warehouse</value>
22 </property>

配置hive-env.sh和hive-config.shoop

1 mv hive-env.sh.template hive-env.sh
2 
3 vi /usr/local/hive/bin/hive-config.sh
4 export JAVA_HOME=/usr/java/latest
5 export HIVE_HOME=/usr/local/hive
6 export HADOOP_HOME=/usr/local/hadoop

驗證hive是否安裝成功:直接輸入hive命令,能夠進入hive命令行spa

相關文章
相關標籤/搜索