spark通过JDBC读取hive事务表

  • Post author:
  • Post category:其他


目前spark2.x版本底层并不支持spark直接访问hive事务表,只能获取表结构,不能获取数据,有兴趣的同学可以试验一下。网上也查阅了很多相关的资料,现在把它们总结一下,目前能想到的解决方案就是通过jdbc的方式获取,以下就是解决方案:

sql: str = "(select * from std.ice_tiantongfen_back_for_resolve_url_2) as temp"
jdbcDF = sparkSession.read \
    .format("jdbc") \
    .option("driver", "org.apache.hive.jdbc.HiveDriver") \
    .option("url", "jdbc:hive2://cdhmaster02:10000") \
    .option("user", "etl") \
    .option("dbtable", sql) \
    .option("fetchsize", "100") \
    .load()

在运行上述脚本时,需要引用相应的jar包hive-jdbc-1.1.0-cdh5.12.2.jar和hive-service-1.1.0-cdh5.12.2.jar。这两个jar包可以在CDH安装目录下找到。以下是运行的结果:

数据还是有异常的,居然和列名一模一样。在网上查阅相关资料以及阅读spark源码发现问题如下:

spark的底层居然没有添加HiveJDBC,所以无法解析正常的数据。问题已经发现 ,现在要做的就是新建一个类,继承JdbcDialect,并重写了canHandle和quoteIdentifier方法,然后再进行注册,代码如下:

case object HiveSqlDialect extends JdbcDialect {
  override def canHandle(url: String): Boolean = url.startsWith("jdbc:hive2")

  override def quoteIdentifier(colName: String): String = {
    colName.split('.').map(part => s"`$part`").mkString(".")
  }
}
class RegisterHiveSqlDialect {
  def register(): Unit = {
    JdbcDialects.registerDialect(HiveSqlDialect)
  }
}

和hive交互的程序是用python编写,但是上述代码是用scala编写,要打成jar包,jar包名字叫做:sparkhivejdbc-1.0.jar。python中还要引用java_import模块才可以调用上述代码。如果和hive交互的程序是scala或java,则可以直接调用。具体如下:

gw = sparkSession.sparkContext._gateway
from py4j.java_gateway import java_import
java_import(gw.jvm, "HiveJdbcDialects.RegisterHiveSqlDialect")
registerHiveSqlDialect = gw.jvm.RegisterHiveSqlDialect()
registerHiveSqlDialect.register()
sql: str = "(select * from std.ice_tiantongfen_back_for_resolve_url_2) as temp"
jdbcDF = sparkSession.read \
    .format("jdbc") \
    .option("driver", "org.apache.hive.jdbc.HiveDriver") \
    .option("url", "jdbc:hive2://cdhmaster01:10000") \
    .option("user", "etl") \
    .option("dbtable", sql) \
    .option("fetchsize", "100") \
    .load()

在运行时,需要添加相关的jar包依赖–jars  sparkhivejdbc-1.0.jar,hive-jdbc-1.1.0-cdh5.12.2.jar,hive-service-1.1.0-cdh5.12.2.jar.结果如下:

数据现在可以正常显示。至此困扰多日的spark读取hive事务表数据的问题得到解决。



版权声明:本文为zhoukk1985原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。