Spark抽取mysql中的数据到Hive中

  • Post author:
  • Post category:mysql





提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档




思路


spark抽取mysql中的数据到hive中,可通过以下2步完成:

1.先将mysql中的数据抽取到存放再hdfs上的一个文件(.csv,.txt)

2.再讲文件通过load命令加载到hive中



下面用具体案例演示



一、案例介绍


本案例是讲mysql中的person表抽取到hive中,其中mysql中的数据如下图所示:

在这里插入图片描述



二、具体步骤



1.编写scala程序完成从mysql讲数据导出成csv文件


代码如下(示例):

object Test {
  def main(args: Array[String]): Unit = {
    val spark = SparkSession.builder().appName("csv").master("spark://master:7077").getOrCreate()
    val prop = new Properties()
    prop.setProperty("user","root")
    prop.setProperty("password","123456")
    val dataDf = spark.read.option("header","true").jdbc("jdbc:mysql://192.168.233.131:3306/spark","person",prop)
   
    dataDf.write.option("delimiter",",").option("header","false").csv("hdfs://master:9000/spark/person")
    }
}



2.打包成jar包提交到集群上


代码如下(示例):

spark-submit --class com.test.Test /root/test.jar 


打包成的jar包命名为test.jar,最终运行结束后,查看namenode的UI界面可以看到如下2个文件。


![在这里插入图片描述](https://img-blog.csdnimg.cn/1bf48cf451334a32ad5af1904adaf50b.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBA5Lya57yW56iL55qE5p2O6L6D55im,size_20,color_FFFFFF,t_70,g_se,x_16)



3.将hdfs上的这个文件下载到本地目录下


下载并修改文件名代码如下(示例):

hadoop fs -get /spark/person/part-00000-5d59800d-1c52-4234-be1e-88951e0de7ed.csv /root/
mv part-00000-5d59800d-1c52-4234-be1e-88951e0de7ed.csv person.csv 


结果如下:

在这里插入图片描述



4.将本地数据文件的数据加载到hive中


代码如下(示例):

//新建数据库
create database sparktest;
use sparktest;
//新建表格,并指定分隔符为','
create table person2(ID int,Name string,Age int)
row format delimited fields terminated by ',';
//加载数据
load data local inpath '/root/person.csv' into table person;
//查看表中数据
select * from person;


结果如下(示例):

在这里插入图片描述

在这里插入图片描述


在hive中查看表中数据时,希望显示表头时,需要再启动hive后,做如下设置:

set hive.ctl.print.header=true;



总结


这个案例演示了如何从mysql将数据加载到hive的内部表中,用到了sparksql相关的编程知识。



版权声明:本文为Allwordhuier原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。