代码如下:import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.hive.HiveContext
/**
* HiveSQL使用
*/
object HiveContextApp {
def main(args: Array[String]): Unit = {
// 1) 创建相应的Context
val sparkConf = new SparkConf()
// 本地调试使用,在测试和生产中,通过脚本的方式传入
// sparkConf.setAppName(“SQLContextApp”).setMaster(“local[2]”)
val sc = new SparkContext(sparkConf)
val hiveContext = new HiveContext(sc)
// 2) 相关处理
hiveContext.table(“hive_wordcount”).show
// 3) 关闭资源
sc.stop()
}
}
Hive表存在:
HDFS进程也存在:
抛出异常如下,提示对应的Hive表不存在: