网站介绍:文章浏览阅读3.6k次。 问题原因:按照网上的诸多博客等想使用Spark直接读取Hive,但不使用Hivejdbc的方式,在导入两个xml之后只能读取到default这个数据库,按照诸多网上的教程,修改xml还是未能起到作用(hive不能称为一个数据库,只是习惯了,下次一定改)01.文件拷贝 上传core-site.xml,hive-site.xml到spark/conf目录下,core-site.xml在Hadoop种,hive-site.xml在hive中(base) [root@192 conf]# ls -al_spark.sql只有default库
- 链接地址:https://blog.csdn.net/weixin_46408961/article/details/123732038
- 链接标题:解决Spark读取Hive的数据库,只能读取到default_spark.sql只有default库-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:260
- 网站标签:spark.sql只有default库