Hive架构原理与实战——apache-hive-3.1.2+Mysql部署与配置

  • Post author:
  • Post category:mysql


Hive是一个数据仓库基础工具在Hadoop中用来处理结构化数据。它架构在Hadoop之上,总归为大数据,并使得查询和分析方便。并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行

Hive特点

它存储架构在一个数据库中并处理数据到HDFS。

它是专为OLAP设计。

它提供SQL类型语言查询叫HiveQL或HQL。

它是熟知,快速,可扩展和可扩展的。

Hive架构

下面的组件图描绘了Hive的结构:

该组件图包含不同的单元。下表描述每个单元:

单元名称

操作

用户接口/界面

Hive是一个数据仓库基础工具软件,可以创建用户和HDFS之间互动。用户界面,Hive支持是Hive的Web UI,Hive命令行,HiveHD洞察(在Windows服务器)。

元存储

Hive选择各自的数据库服务器,用以储存表,数据库,列模式或元数据表,它们的数据类型和HDFS映射。

HiveQL处理引擎

HiveQL类似于SQL的查询上Metastore模式信息。这是传统的方式进行MapReduce程序的替代品之一。相反,使用Java编写的MapReduce程序,可以编写为MapReduce工作,并处理它的查询。

执行引擎

HiveQL处理引擎和MapReduce的结合部分是由Hive执行引擎。执行引擎处理查询并产生结果和MapReduce的结果一样。它采用MapReduce方法。

HDFS 或 HBASE

Hadoop的分布式文件系统或者HBASE数据存储技术是用于将数据存储到文件系统。

Hive工作原理

下图描述了Hive 和Hadoop之间的工作流程。

下表定义Hive和Hadoop框架的交互方式:

Step No.

操作

1

Execute Query

Hive接口,如命令行或Web UI发送查询驱动程序(任何数据库驱动程序,如JDBC,ODBC等)来执行。

2

Get Plan

在驱动程序帮助下查询编译器,分析查询检查语法和查询计划或查询的要求。

3

Get Metadata

编译器发送元数据请求到Metastore(任何数据库)。

4

Send Metadata

Metastore发送元数据,以编译器的响应。

5

Send Plan

编译器检查要求,并重新发送计划给驱动程序。到此为止,查询解析和编译完成。

6

Execute Plan

驱动程序发送的执行计划到执行引擎。

7

Execute Job

在内部,执行作业的过程是一个MapReduce工作。执行引擎发送作业给JobTracker,在名称节点并把它分配作业到TaskTracker,这是在数据节点。在这里,查询执行MapReduce工作。

7.1

Metadata Ops

与此同时,在执行时,执行引擎可以通过Metastore执行元数据操作。

8

Fetch Result

执行引擎接收来自数据节点的结果。

9

Send Results

执行引擎发送这些结果值给驱动程序。

10

Send Results

驱动程序将结果发送给Hive接口。

解压apache-hive-3.1.2-bin.tar.gz

上传mysql connector的jar包到lib

配置/etc/profile


export HIVE_HOME=/opt/packages/hive/hadoop-3.1.4

export PATH=$PATH:$HIVE_HOME/bin


hive-env.sh配置

export HADOOP_HOME=/opt/packages/hadoop/hadoop-3.1.4


jpox.properties

javax.jdo.PersistenceManagerFactoryClass =

org.jpox.PersistenceManagerFactoryImpl

org.jpox.autoCreateSchema = false

org.jpox.validateTables = false

org.jpox.validateColumns = false

org.jpox.validateConstraints = false

org.jpox.storeManagerType = rdbms

org.jpox.autoCreateSchema = true

org.jpox.autoStartMechanismMode = checked

org.jpox.transactionIsolation = read_committed

javax.jdo.option.DetachAllOnCommit = true

javax.jdo.option.NontransactionalRead = true

javax.jdo.option.ConnectionDriverName = com.mysql.jdbc.Driver

javax.jdo.option.ConnectionURL = jdbc:mysql://192.168.9.58:3306/hive_metastore?characterEncoding=utf-8&useSSL=false

javax.jdo.option.ConnectionUserName = root

javax.jdo.option.ConnectionPassword = 123456


hive-site.xml 配置


<configuration>

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://192.168.9.58:3306/hive_metastore?createDatabaseIfNotExist=true</value>

<description>JDBC connect string for a JDBC metastore</description>

<!– 如果 mysql 和 hive 在同一个服务器节点,那么请更改 hadoop02 为 localhost –>

</property>

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

<description>Driver class name for a JDBC metastore</description>

</property>

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>root</value>

<description>username to use against metastore database</description>

</property>

<property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>123456</value>

<description>password to use against metastore database</description>

</property>

<property>

<name>datanucleus.autoCreateSchema</name>

<value>true</value>

</property>

<property>

<name>datanucleus.autoCreateTables</name>

<value>true</value>

</property>

<property>

<name>datanucleus.fixedDatastore</name>

<value>false</value>

</property>

</configuration>


配置~/.bashrc

export HIVE_HOME=/opt/packages/hive/apache-hive-3.1.2

export PATH=$PATH:$HIVE_HOME/bin

export CLASSPATH=$CLASSPATH:/opt/packages/hadoop/hadoop-3.1.4/lib

export CLASSPATH=$CLASSPATH:/opt/packages/hive/apache-hive-3.1.2/lib/

初始化数据库

schematool -dbType mysql -initSchema

元数据服务

hive –service metastore

启动

[root@slave123 bin]# hive

SLF4J: Class path contains multiple SLF4J bindings.

SLF4J: Found binding in [jar:file:/opt/packages/hive/apache-hive-3.1.2/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]

SLF4J: Found binding in [jar:file:/opt/packages/hadoop/hadoop-3.1.4/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]

SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.

SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]

Hive Session ID = 0111f9e9-72c8-41c0-ae1c-de15d4fc0e2c

Logging initialized using configuration in jar:file:/opt/packages/hive/apache-hive-3.1.2/lib/hive-common-3.1.2.jar!/hive-log4j2.properties Async: true

2020-09-27 06:36:18,618 WARN  [0111f9e9-72c8-41c0-ae1c-de15d4fc0e2c main] DataNucleus.MetaData: Metadata has jdbc-type of null yet this is not valid. Ignored

Hive-on-MR is deprecated in Hive 2 and may not be available in the future versions. Consider using a different execution engine (i.e. spark, tez) or using Hive 1.X releases.

Hive Session ID = 3048c101-d696-40db-a500-4148870c41ba

创建并查看test数据库

hive> create database test;

OK

Time taken: 0.973 seconds


hive> show databases;

OK

default

test

Time taken: 1.223 seconds, Fetched: 2 row(s)

没有问题



版权声明:本文为Jack__iT原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。