提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
前言
ubuntu18.04+java1.8+mysql 5.7+hadoop2.7.1+hive2.1.1(换别的版本安装可能不同)
前提:
安装hive所需要的虚拟机环境为虚拟机安装有Hadoop并且集群成功,同时Hadoop需要在启动状态下(java环境下),同时需要安装有mysql。
提示:需要自取:
链接:https://pan.baidu.com/s/1iHnZ3sPwpkIvW2SDfMCG9A
提取码:kp5i
提示:以下是本篇文章正文内容,下面案例可供参考
一、前提准备hadoop安装
推荐安装hadoop2.7.1(本人一开始安装hadoop2.10.1,安装流程有出入,后选用hadoop2.7.1)
参考https://blog.csdn.net/yyfloveqcw/article/details/124472610
二、安装hive
1.根据网页安装
配置hive-site.xml:
<?xml version="1.0"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<!-- 所连接的MySQL数据库实例 -->
<value>jdbc:mysql://192.168.1.139:3306/hivedb?createDatabaseIfNotExist=true&useSSL=false&serverTimezone=GMT</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<!-- 连接的MySQL数据库驱动 -->
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<!-- 连接的MySQL数据库用户名 -->
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<!-- 连接的MySQL数据库密码 -->
<value>root</value>
</property>
<property>
<!-- 默认数据仓库存储的位置,该位置为HDFS上的路径 -->
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<!-- hiveserver2服务的端口号以及绑定的主机名 -->
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<!-- 根据自己环境修改 -->
<value>192.168.1.139</value>
</property>
<property>
<!-- 查询数据时 显示出列的名字 -->
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<property>
<!-- 在命令行中显示当前所使用的数据库 -->
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
2.通过工具连接hive
先启动10000端口
在hive下的bin目录执行命令
hive --service hiveserver2
查看10000端口启动。
netstat -anp |grep 10000
或者
netstat -tunlp
通过DBeaver工具连接
推荐网址https://blog.csdn.net/qq_45986314/article/details/124091509
总结
提示:这里对文章进行总结:
例如:以上就是今天要讲的内容,本文仅仅简单介绍了hive的安装,及环境准备