Hive是一个数据仓库基础工具在Hadoop中用来处理结构化数据。它架构在Hadoop之上,总归为大数据,并使得查询和分析方便。并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行
Hive特点
它存储架构在一个数据库中并处理数据到HDFS。
它是专为OLAP设计。
它提供SQL类型语言查询叫HiveQL或HQL。
它是熟知,快速,可扩展和可扩展的。
Hive架构
下面的组件图描绘了Hive的结构:
该组件图包含不同的单元。下表描述每个单元:
单元名称 |
操作 |
用户接口/界面 |
Hive是一个数据仓库基础工具软件,可以创建用户和HDFS之间互动。用户界面,Hive支持是Hive的Web UI,Hive命令行,HiveHD洞察(在Windows服务器)。 |
元存储 |
Hive选择各自的数据库服务器,用以储存表,数据库,列模式或元数据表,它们的数据类型和HDFS映射。 |
HiveQL处理引擎 |
HiveQL类似于SQL的查询上Metastore模式信息。这是传统的方式进行MapReduce程序的替代品之一。相反,使用Java编写的MapReduce程序,可以编写为MapReduce工作,并处理它的查询。 |
执行引擎 |
HiveQL处理引擎和MapReduce的结合部分是由Hive执行引擎。执行引擎处理查询并产生结果和MapReduce的结果一样。它采用MapReduce方法。 |
HDFS 或 HBASE |
Hadoop的分布式文件系统或者HBASE数据存储技术是用于将数据存储到文件系统。 |
Hive工作原理
下图描述了Hive 和Hadoop之间的工作流程。
下表定义Hive和Hadoop框架的交互方式:
Step No. |
操作 |
1 |
Execute Query Hive接口,如命令行或Web UI发送查询驱动程序(任何数据库驱动程序,如JDBC,ODBC等)来执行。 |
2 |
Get Plan 在驱动程序帮助下查询编译器,分析查询检查语法和查询计划或查询的要求。 |
3 |
Get Metadata 编译器发送元数据请求到Metastore(任何数据库)。 |
4 |
Send Metadata Metastore发送元数据,以编译器的响应。 |
5 |
Send Plan 编译器检查要求,并重新发送计划给驱动程序。到此为止,查询解析和编译完成。 |
6 |
Execute Plan 驱动程序发送的执行计划到执行引擎。 |
7 |
Execute Job 在内部,执行作业的过程是一个MapReduce工作。执行引擎发送作业给JobTracker,在名称节点并把它分配作业到TaskTracker,这是在数据节点。在这里,查询执行MapReduce工作。 |
7.1 |
Metadata Ops 与此同时,在执行时,执行引擎可以通过Metastore执行元数据操作。 |
8 |
Fetch Result 执行引擎接收来自数据节点的结果。 |
9 |
Send Results 执行引擎发送这些结果值给驱动程序。 |
10 |
Send Results 驱动程序将结果发送给Hive接口。 |
解压apache-hive-3.1.2-bin.tar.gz
上传mysql connector的jar包到lib
配置/etc/profile
export HIVE_HOME=/opt/packages/hive/hadoop-3.1.4
export PATH=$PATH:$HIVE_HOME/bin
hive-env.sh配置
export HADOOP_HOME=/opt/packages/hadoop/hadoop-3.1.4
jpox.properties
javax.jdo.PersistenceManagerFactoryClass =
org.jpox.PersistenceManagerFactoryImpl
org.jpox.autoCreateSchema = false
org.jpox.validateTables = false
org.jpox.validateColumns = false
org.jpox.validateConstraints = false
org.jpox.storeManagerType = rdbms
org.jpox.autoCreateSchema = true
org.jpox.autoStartMechanismMode = checked
org.jpox.transactionIsolation = read_committed
javax.jdo.option.DetachAllOnCommit = true
javax.jdo.option.NontransactionalRead = true
javax.jdo.option.ConnectionDriverName = com.mysql.jdbc.Driver
javax.jdo.option.ConnectionURL = jdbc:mysql://192.168.9.58:3306/hive_metastore?characterEncoding=utf-8&useSSL=false
javax.jdo.option.ConnectionUserName = root
javax.jdo.option.ConnectionPassword = 123456
hive-site.xml 配置
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.9.58:3306/hive_metastore?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
<!– 如果 mysql 和 hive 在同一个服务器节点,那么请更改 hadoop02 为 localhost –>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>password to use against metastore database</description>
</property>
<property>
<name>datanucleus.autoCreateSchema</name>
<value>true</value>
</property>
<property>
<name>datanucleus.autoCreateTables</name>
<value>true</value>
</property>
<property>
<name>datanucleus.fixedDatastore</name>
<value>false</value>
</property>
</configuration>
配置~/.bashrc
export HIVE_HOME=/opt/packages/hive/apache-hive-3.1.2
export PATH=$PATH:$HIVE_HOME/bin
export CLASSPATH=$CLASSPATH:/opt/packages/hadoop/hadoop-3.1.4/lib
export CLASSPATH=$CLASSPATH:/opt/packages/hive/apache-hive-3.1.2/lib/
初始化数据库
schematool -dbType mysql -initSchema
元数据服务
hive –service metastore
启动
[root@slave123 bin]# hive
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/opt/packages/hive/apache-hive-3.1.2/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/packages/hadoop/hadoop-3.1.4/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Hive Session ID = 0111f9e9-72c8-41c0-ae1c-de15d4fc0e2c
Logging initialized using configuration in jar:file:/opt/packages/hive/apache-hive-3.1.2/lib/hive-common-3.1.2.jar!/hive-log4j2.properties Async: true
2020-09-27 06:36:18,618 WARN [0111f9e9-72c8-41c0-ae1c-de15d4fc0e2c main] DataNucleus.MetaData: Metadata has jdbc-type of null yet this is not valid. Ignored
Hive-on-MR is deprecated in Hive 2 and may not be available in the future versions. Consider using a different execution engine (i.e. spark, tez) or using Hive 1.X releases.
Hive Session ID = 3048c101-d696-40db-a500-4148870c41ba
创建并查看test数据库
hive> create database test;
OK
Time taken: 0.973 seconds
hive> show databases;
OK
default
test
Time taken: 1.223 seconds, Fetched: 2 row(s)
没有问题