Hive是什么
- 我們知道傳統(tǒng)數(shù)據(jù)存儲都是存儲在關系型數(shù)據(jù)庫中,它們使用一種SQL(結構化查詢語言)方言來查詢數(shù)據(jù)庫中的數(shù)據(jù)腌且。由于大數(shù)據(jù)的爆發(fā),Hadoop的廣泛使用,當這些數(shù)據(jù)遷移到Hadoop之后评腺,用戶或者管理員如何對存儲在Hadoop上的數(shù)據(jù)進行查詢?Hive出現(xiàn)的主要原因就是為了提供一種SQL查詢的方言淑掌,來查詢存儲在Hadoop集群種的數(shù)據(jù)蒿讥,這個被稱為Hive查詢語言(簡稱HiveQL或HQL)。
- Hive本身并不是一個完整的數(shù)據(jù)庫抛腕,這是由于Hadoop和HDFS本身設計所限制的芋绸,比如Hive不支持行級別的更新、插入担敌、刪除操作摔敛。同時由于Hive會將查詢轉換為MapReduce作業(yè),而MapReduce本身啟動需要消耗較長的時間(Hadoop是一個面向批處理的系統(tǒng))全封,所以Hive查詢延時比較嚴重马昙,并且Hive不支持事務。
- Hive更適合數(shù)據(jù)倉庫應用程序刹悴,來維護海量數(shù)據(jù)行楞。使用Hive進行靜態(tài)數(shù)據(jù)分析,不需要快速響應結果土匀,并且數(shù)據(jù)本身不會頻繁變化子房,而且可以對數(shù)據(jù)進行挖掘。
- 由于Hive不支持OLTP(聯(lián)機事務處理)所需的關鍵功能就轧,所以如果想要對大規(guī)模數(shù)據(jù)使用OLTP功能的話证杭,可以使用NoSQL數(shù)據(jù)庫,比如HBase或Cassandra妒御。
注意:Hive和大多數(shù)SQL方言一樣解愤,并不符合ANSI SQL標準,不過HiveQL和Mysql的SQL方言比較接近乎莉。
如何使用Hive
在Hive的發(fā)行版中有多個模塊可供訪問Hive:CLI送讲、HWI(Hive網(wǎng)頁界面)、JDBC梦鉴、ODBC李茫、Thrift Server。
所有的命令和查詢都會進入到Driver模塊肥橙,通過該模塊對輸入進行編譯魄宏、對需求計算進行優(yōu)化,然后按照指定步驟執(zhí)行(通常啟動多個MapReduce來執(zhí)行)存筏。
需要注意的是宠互,啟動MR任務的時候味榛,Hive不會生成Java的MapReduce程序,而是通過一個表示“job執(zhí)行計劃”的XML文件驅動執(zhí)行內置的予跌、原生的Mapper和Reducer模塊搏色。
Hive安裝
下載Hive安裝包http://www.apache.org/dyn/closer.cgi/hive/ hive現(xiàn)在有1.x版本和2.x版本,其中1.x可支持Hadoop1和Hadoop2券册,而2.x版本指支持Hadoop2频轿。因為hive基于Hadoop,所以需要確保Hadoop安裝成功烁焙。hive只需要在一個節(jié)點安裝即可航邢。
解壓包
tar -zxvf apache-hive-2.1.1-bin.tar.gz添加hive安裝路徑
vim /etc/profile或者~/.bash_profile
export HIVE_HOME=/opt/hadoop/apache-hive-2.1.1-bin
export PATH=PATH在HDFS創(chuàng)建指定目錄,并給用戶組寫權限
hadoop fs -mkdir /tmp
hadoop fs -mkdir /user/hive
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hivemysql創(chuàng)建hive metastore庫
在上面hive結構中骄蝇,我們有一個MetaStore是用來存儲hive的元數(shù)據(jù)信息膳殷,一般metastore信息存儲到關系型數(shù)據(jù)庫中的。如果不配置九火,hive會默認使用內嵌的Derby數(shù)據(jù)庫赚窃,Derby數(shù)據(jù)庫本身容量小,并且不支持多客戶端使用岔激,所以一般使用mysql來存儲metastore信息勒极。文件配置
配置hive-env.sh:
添加HADOOP_HOME和HIVE_CONF_DIR配置。
配置hive-site.xml鹦倚,這個文件如果不存在河质,則自己創(chuàng)建冀惭。
<pre>
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://xxx.xxx.xxx.xxx:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123</value>
<description>password to use against metastore database</description>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
<description>location of default database for the warehouse</description>
</property>
</configuration>
</pre>添加mysql連結器mysql-connector-java-5.1.42-bin.jar
下載:https://dev.mysql.com/downloads/connector/j/
解壓縮后copy到$HIVE_HOME/lib/里面震叙。hive信息初始化到mysql 中
schematool -dbType mysql -initSchema
<pre>
which: no hbase in (/opt/hadoop/apache-hive-2.1.1-bin/bin:/opt/hadoop/hadoop-2.7.3/bin:/opt/hadoop/hadoop-2.7.3/sbin:/usr/java/jdk1.8.0_131/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin)
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/opt/hadoop/apache-hive-2.1.1-bin/lib/log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/hadoop/hadoop-2.7.3/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Metastore connection URL: jdbc:mysql://10.5.234.238:3306/hive?createDatabaseIfNotExist=true
Metastore Connection Driver : com.mysql.jdbc.Driver
Metastore connection User: root
Starting metastore schema initialization to 2.1.0
Initialization script hive-schema-2.1.0.mysql.sql
Initialization script completed
schemaTool completed
</pre>
這時候mysql中會自動創(chuàng)建一個hive庫。進入hive
直接輸入hive命令散休,測試一下
<pre>
hive> show tables;
OK
Time taken: 1.012 seconds
</pre>
hive命令行
輸入hive - -help
<pre>
Usage ./hive <parameters> --service serviceName <service parameters>
Service List: beeline cleardanglingscratchdir cli hbaseimport hbaseschematool help hiveburninclient hiveserver2 hplsql hwi jar lineage llapdump llap llapstatus metastore metatool orcfiledump rcfilecat schemaTool version
Parameters parsed:
--auxpath : Auxillary jars
--config : Hive configuration directory
--service : Starts specific service/component. cli is default
Parameters used:
HADOOP_HOME or HADOOP_PREFIX : Hadoop install directory
HIVE_OPT : Hive options
For help on a particular service:
./hive --service serviceName --help
Debug help: ./hive --debug —help
</pre>
通過hive --service serviceName來啟動服務媒楼,Service List包含了所有的服務。
--auxpath:來指定用冒號分隔的jar包戚丸,包含用戶自定義的擴展等划址。
--config:覆蓋$HIVE_HOME/conf目錄下的配置的
--service:啟動指定服務或組件,默認是cli
如果要查看每個服務如何使用限府,可以通過./hive --service serviceName --help來查看夺颤。
CLI命令行界面
hive --service cli --help
<pre>
usage: hive
-d,--define <key=value> Variable subsitution to apply to hive commands. e.g. -d A=B or --define A=B. 用來定義變量比如:hive -d a=12
--database <databasename> Specify the database to use. 指定所使用的數(shù)據(jù)庫,默認是default
-e <quoted-query-string> SQL from command line. 不用進入hive胁勺,直接在命令行中輸入sql世澜,如 :hive -e "show databases"
-f <filename> SQL from files. 指定一個sql文件執(zhí)行,如果在CLI中署穗,通過source然后指定文件路徑寥裂,也可以執(zhí)行指定文件的sql嵌洼。
-H,--help Print help information
--hiveconf <property=value> Use value for given property. 配置hive相關的屬性
--hivevar <key=value> Variable subsitution to apply to hive commands. e.g. --hivevar A=B.用戶定義變量,和-d一樣
-i <filename> Initialization SQL file. 允許用戶指定一個文件封恰,當CLI啟動前會執(zhí)行這個文件麻养。這個文件以hiverc結尾,一般這個文件用來設置每次用戶啟動CLI的一些配置诺舔,比如剛才的:hiveconf hive.cli.print.current.db=true;
-S,--silent Silent mode in interactive shell. 靜默模式鳖昌,不打印”ok”和“Time take”等信息。
-v,--verbose Verbose mode (echo executed SQL to the
console)
</pre>
在CLI中可以使用set命令顯示和修改變量值低飒,在CLI中也可以看到system和env的屬性變量遗遵,但是env的變量是只讀不能更改的。
<pre>
set env:HOME;
env:HOME=/home/hadoop
set;//打印env所有變量
set a;//顯示a的值
set a=13;//修改變量的值
</pre>
在HiveQL中可以直接使用變量逸嘀,比如:
<pre>
hive -d a = age;
hive>create table user(${hivevar:a} int);
</pre>
hivevar:a中hivevar是可以省略的车要,hivevar和define使用是一樣的。
--hiveconf用來定義hive的配置崭倘,比如:
hive --hiveconf hive.cli.print.current.db=true
開啟這個屬性翼岁,在CLI提示符前會打印當前使用的數(shù)據(jù)庫:
hive (default)>
歷史命令
hive會將最近100條執(zhí)行命令放到$HOME/.hivehistory中
在CLI中執(zhí)行shell
在CLI中可以不退出就能執(zhí)行shell命令,只需要在命令前加!司光,并且以分號(;)結尾即可琅坡。比如
hive> ! ls;
在CLI中執(zhí)行shell不支持需要用戶輸入的交互式命令、不支持管道功能残家、不支持文件名自動補齊功能(不支持通配符)榆俺。
在CLI中使用Hadoop的dfs命令
在CLI中可以操作HDFS,只需要直接輸入dfs即可坞淮,比如:
hive>dfs -help;
hive腳本
hive腳本是以.hql結尾的茴晋,在腳本中使用--進行注釋
查詢顯示字段名稱
可以通過設置hive.cli.print.header=true;來打印每次查詢顯示表頭信息。