来解决一个很棘手的问题,sparkstream我用的spark版本较新,df落地到mysql最近爆出了问题 com.mysql.jdbc.Driver does not allow create_at org.apache.spark.sql.dataframewriter.save(dataf-CSDN博客

网站介绍:文章浏览阅读712次。来看下官网的demo,这里没有任何问题,因为.format("jdbc")是隐式,我们无需关注driver的适用性,但是,程序后台任然会报错,当我们写明用数据库类型之后,也会出现说,无法create table as select,这个mysql是不允许的。但是,以前我们的spark项目是可以的,就因为我使用了,新版本的spark吗?我知道csdn的活跃度很低,问了也是白问,stacko..._at org.apache.spark.sql.dataframewriter.save(dataframewriter.scala:270) at