解决Spark读取Hive的数据库,只能读取到default_spark.sql只有default库-CSDN博客

网站介绍:文章浏览阅读3.6k次。​ 问题原因:按照网上的诸多博客等想使用Spark直接读取Hive,但不使用Hivejdbc的方式,在导入两个xml之后只能读取到default这个数据库,按照诸多网上的教程,修改xml还是未能起到作用(hive不能称为一个数据库,只是习惯了,下次一定改)01.文件拷贝​ 上传core-site.xml,hive-site.xml到spark/conf目录下,core-site.xml在Hadoop种,hive-site.xml在hive中(base) [root@192 conf]# ls -al_spark.sql只有default库