sparksql操作hive遇到的坑
第一次写sparksql项目想用sparksql操作hive查询数据就找到了百度代码做参考【idea工具开发】

代码如下:
import org.apache.spark.sql.SparkSession

object aaa {
  def main(args: Array[String]): Unit = {

//设置HADOOP_USER_NAME,否则会有权限问题
    System.setProperty("HADOOP_USER_NAME", "hadoop")

val spark = SparkSession
      .builder()
      .appName("SparkHiveDemo")
      .master("spark://192.168.43.128:7077")
      .enableHiveSupport()
      .config("spark.sql.warehouse.dir", "/user/hive/warehouse/")
      .getOrCreate()

spark.sql("select * from student").show()
    spark.close()
  }
}

现象:执行'show tables;'语句完全没有问题执行'select * from student'就会出现以下现象 executor不停分配和移除:

21/02/26 16:11:01 INFO CoarseGrainedSchedulerBackend$DriverEndpoint: Asked to remove non-existent executor 5
21/02/26 16:11:01 INFO StandaloneSchedulerBackend: Granted executor ID app-20210226161103-0021/8 on hostPort 192.168.43.127:7079 with 1 core(s), 1024.0 MB RAM
21/02/26 16:11:01 INFO StandaloneAppClient$ClientEndpoint: Executor updated: app-20210226161103-0021/8 is now RUNNING
21/02/26 16:11:01 INFO StandaloneAppClient$ClientEndpoint: Executor updated: app-20210226161103-0021/6 is now EXITED (Command exited with code 1)
21/02/26 16:11:01 INFO StandaloneSchedulerBackend: Executor app-20210226161103-0021/6 removed: Command exited with code 1
21/02/26 16:11:01 INFO StandaloneAppClient$ClientEndpoint: Executor added: app-20210226161103-0021/9 on worker-20210226101445-192.168.43.130-7079 (192.168.43.130:7079) with 1 core(s)
21/02/26 16:11:01 INFO BlockManagerMasterEndpoint: Trying to remove executor 6 from BlockManagerMaster.

以上日志显示不断循环

查了一下excutor日志原因找报错如下【报错日志目录spark/work/app-20210226153746-0020/98/stderr】
    ... 4 more
Caused by: java.io.IOException: Failed to connect to DESKTOP-HKJLBCB:58243
    at org.apache.spark.network.client.TransportClientFactory.createClient(TransportClientFactory.java:245)
    at org.apache.spark.network.client.TransportClientFactory.createClient(TransportClientFactory.java:187)
    at org.apache.spark.rpc.netty.NettyRpcEnv.createClient(NettyRpcEnv.scala:198)
    at org.apache.spark.rpc.netty.Outbox$$anon$1.call(Outbox.scala:194)
    at org.apache.spark.rpc.netty.Outbox$$anon$1.call(Outbox.scala:190)
    at java.util.concurrent.FutureTask.run(FutureTask.java:266)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
    at java.lang.Thread.run(Thread.java:748)
Caused by: java.net.UnknownHostException: DESKTOP-HKJLBCB
    at java.net.InetAddress.getAllByName0(InetAddress.java:1280)
    at java.net.InetAddress.getAllByName(InetAddress.java:1192)
    at java.net.InetAddress.getAllByName(InetAddress.java:1126)

原因:master指定错误,替换成如下代码即可完成

变更后的代码:
import org.apache.spark.sql.SparkSession

object aaa {
  def main(args: Array[String]): Unit = {

//设置HADOOP_USER_NAME,否则会有权限问题
    System.setProperty("HADOOP_USER_NAME", "hadoop")

val spark = SparkSession
      .builder()
      .appName("SparkHiveDemo")
  .master("local[*]")
      .enableHiveSupport()
      .config("spark.sql.warehouse.dir", "/user/hive/warehouse/")
      .getOrCreate()

spark.sql("select * from student").show()
    spark.close()
  }
}

或者可以参考如下连接:

https://www.cnblogs.com/Mr-lin66/p/13519103.html

idea sparksql操作hive遇到的坑CoarseGrainedSchedulerBackend$DriverEndpoint: Asked to remove non-existent ex相关推荐

  1. SparkSQL操作Hive

    title: SparkSQL操作Hive date: 2020-05-12 16:12:55 tags: Spark Apache Hive 是 Hadoop 上的 SQL 引擎,Spark SQL ...

  2. python读取oracle数据到hvie parquet_关于sparksql操作hive,读取本地csv文件并以parquet的形式装入hive中...

    说明:spark版本:2.2.0 hive版本:1.2.1 需求: 有本地csv格式的一个文件,格式为${当天日期}visit.txt,例如20180707visit.txt,现在需要将其通过spar ...

  3. SparkSQL操作Hive Table

    Spark SQL支持对Hive的读写操作.然而因为Hive有很多依赖包,所以这些依赖包没有包含在默认的Spark包里面.如果Hive依赖的包能在classpath找到,Spark将会自动加载它们.需 ...

  4. Spark采坑系列(三)Spark操作Hive的坑

    2019独角兽企业重金招聘Python工程师标准>>> 跟着教学试着用Idea编程,实现Spark查询Hive中的表.结果上来就凉了. 捣鼓好久都不行,在网上查有说将hive-sit ...

  5. sparksql对hive操作

    操作hive表数据 spark.table(tableName) 写回数据 df.wrtite.saveAsTable(tableName) spark.sql("select deptno ...

  6. sparkSQL操作hiveSQL

    sparkSQL操作hiveSQL <dependency><groupId>org.apache.spark</groupId><artifactId> ...

  7. sparksql 操作hive_Spark SQL 物化视图原理与实践

    导言 物化视图作为一种预计算的优化方式,广泛应用于传统数据库中,如Oracle,MSSQL Server等.随着大数据技术的普及,各类数仓及查询引擎在业务中扮演着越来越重要的数据分析角色,而物化视图作 ...

  8. python操作hive和hive_sql语句

    Hive是一个数据仓库基础的应用工具,在Hadoop中用来处理结构化数据,通过类SQL语言对数据进行操作.Hive将sql语句通过解析器转换成MapReduce作业提交到Hadoop集群上,Hadoo ...

  9. spark2.2读写操作hive和mysql数据库

    2019独角兽企业重金招聘Python工程师标准>>> sparksession操作hive数据库 1.需要将core-site.xml,hdfs-site.xml,hive-sit ...

最新文章

  1. 企业网远程协助的小能手
  2. Ubuntu16.04下面壁纸切换软件variety设置
  3. Linux 中断实验
  4. mac命令行将输出写入文件_如何在Linux中使用命令行将PDF文件转换为可编辑文本...
  5. 董付国老师1900页系列Python教学PPT阅读地址汇总
  6. 牛客假日团队赛1 A.蹄球锦标赛
  7. C++二维vector初始化
  8. modelica用inertia连接FlangeWithBearing时报组件不匹配连接错误:incompatible components in connect statement
  9. Windows 2000 安全检查清单( 摘自《网络与安全》)
  10. IDP(个人发展计划)
  11. 【云原生kubernetes】coredns解析集群外部域名
  12. Mac电脑怎么远程桌面连接?
  13. 基于proteus的51单片机仿真实例二、关于proteus
  14. Nature综述:2万字带你系统入门鸟枪法宏基因组实验和分析
  15. 神舟电脑董事长吴海军作客CNET中国,笑谈国货08怎夺江山
  16. python自带静态web服务器搭建代码实现(一)
  17. 各种常见3D渲染软件比较
  18. 天哪!几行js代码就可以实现拳皇小游戏
  19. 服务器升级付款协议,系统技术支持服务协议书范本
  20. 最好最实用的二次开发教程 cms

热门文章

  1. k3wise域服务器登录证书,K3WISE疑难杂症问题解析(七)
  2. 电大计算机应用统考,2011年电大网考计算机应用基础统考答案40763
  3. 人工智能前沿——随需应变的未来大脑
  4. 基于AutoJs实现的薅羊毛专业版第五次大更新
  5. icomoon下载字体图标
  6. 《HelloGitHub》第 85 期
  7. 云主机环境搭建教程之搭建全能主机
  8. Java实现pdf转tex_使用Free Spire.PDF在Java程序中创建和转换PDF文件
  9. stderr和stdout区别
  10. matlab find的常见用法