记录一次Spark – org.apache.spark.sql.AnalysisException异常 2020.04.16

kamisamak 发布于 2020-04-24 1571 次阅读


因为使用了笛卡尔积,但是在Spark2.x中是笛卡尔积操作是默认关闭,如果需要开启,则添加如下配置

val sparkSession = SparkSession.builder().master("local[*]").appName("wula")
.config("spark.sql.crossJoin.enabled","true").getOrCreate()