1 下載hive安裝包
下載地址:http://hive.apache.org/downloads.html
解壓到任意目錄
$ tar -zxvf apache-hive-2.1.1-bin.tar.gz
或 使用brew命令安裝
$ brew install hive
如果沒有特別設(shè)定過brew的路徑配置,那么文件會在目錄/usr/local/Cellar/hive
2 配置文件和環(huán)境變量
環(huán)境變量需要設(shè)置HIVE_HOME
export HIVE_HOME=/usr/local/Cellar/hive/2.1.0
export $PATH:$HIVE_HOME/bin
在路徑../hive/2.1.0/libexec/conf
下提供了一些.template模板,拷貝文件并去掉.template后綴即可
2.1 hive-site.xml
將hive-default.xml.template文件復(fù)制一份甥角,并且改名為hive-site.xml
$ cp hive-default.xml.template hive-site.xml
在hive-site.xml中有這樣的配置:
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<property>
<name>hive.exec.scratchdir</name>
<value>/tmp/hive</value>
</property>
在hdfs中新建目錄/user/hive/warehouse
和/tmp/hive
,賦予讀寫權(quán)限
$ hadoop fs -mkdir -p /user/hive/warehouse
$ hadoop fs -chmod 777 /user/hive/warehouse
$ hadoop fs -mkdir -p /tmp/hive
$ hadoop fs -chmod 777 /tmo/hive
修改hive-site.xml中的臨時目錄
將hive-site.xml文件中的${system:java.io.tmpdir}替換為本地hive的臨時目錄贩绕,并賦予讀寫權(quán)限
將${system:user.name}都替換為root
全部替換掉
修改hive-site.xml數(shù)據(jù)庫相關(guān)的配置
key | memo |
---|---|
javax.jdo.option.ConnectionURL | 將對應(yīng)的value修改為MySQL的地址 |
javax.jdo.option.ConnectionDriverName | 將對應(yīng)的value修改為MySQL驅(qū)動類路徑 |
javax.jdo.option.ConnectionUserName | 將對應(yīng)的value修改為MySQL數(shù)據(jù)庫登錄名 |
javax.jdo.option.ConnectionPassword | 將對應(yīng)的value修改為MySQL數(shù)據(jù)庫的登錄密碼 |
hive.metastore.schema.verification | 將對應(yīng)的value修改為false |
修改后
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://127.0.0.1:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value></value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
下載MySQL驅(qū)動包到lib目錄
2.2 hive-env.sh配置
將hive-env.sh.template文件復(fù)制一份火的,改名為hive-env.sh文件
打開hive-env.sh配置并且添加以下內(nèi)容:
export HADOOP_HOME=/usr/local/Cellar/hadoop/2.8.0/libexec
export HIVE_CONF_DIR=/usr/local/Cellar/hive/2.1.1/conf
export HIVE_AUX_JARS_PATH=/usr/local/Cellar/hive/2.1.1/lib
2.3 WebUI
Hive從2.0版本開始,為HiveServer2提供了一個簡單的WEB UI界面丧叽,界面中可以直觀的看到當(dāng)前鏈接的會話卫玖、歷史日志、配置參數(shù)以及度量信息踊淳。
<property>
<name>hive.server2.webui.host</name>
<value>127.0.0.1</value>
</property>
<property>
<name>hive.server2.webui.port</name>
<value>10002</value>
</property>
需要重啟HiveServer2
$ hive --service hiveserver2 &
啟動和測試
對MySQL數(shù)據(jù)庫進(jìn)行初始化
執(zhí)行成功后,hive數(shù)據(jù)庫里已經(jīng)有一堆表創(chuàng)建好了
$ cd $HIVE_HOME/bin/
$ schematool -initSchema -dbType mysql
啟動hive
$ cd $HIVE_HOME/bin/
$ ./hive
測試
進(jìn)入hive命令行
> show functions;
新建表以及導(dǎo)入數(shù)據(jù)的測試
> create database db_hive_edu;
> use db_hive_edu;
> create table student(id int,name string) row format delimited fields terminated by '\t';
# 將文件數(shù)據(jù)寫入表中
$ touch /opt/hive/student.txt
001 zhangsan
002 lisi
003 wangwu
004 zhaoliu
005 chenqi
# 載入表
> load data local inpath '/opt/hive/student.txt' into table db_hive_edu.student;
# 測試
> select * from student;
OK
001 zhangsan
002 lisi
003 wangwu
004 zhaoliu
005 chenqi
# 查看hdfs上數(shù)據(jù)
/user/hive/warehouse/db_hive_edu.db/student
# 在MySQL中查看
$ SELECT * FROM hive.TBLS;
錯誤和解決
警告 Unable to load native-hadoop library for yourplatform
實際上其實這個警告可以不予理會陕靠。
報錯There are 2 datanode(s) running and 2 node(s) areexcluded in this operation.
原因是你的hadoop中的datanode有問題迂尝,沒法寫入數(shù)據(jù),檢查hadoop是否正常運(yùn)行