在我将spark.DataFrame覆盖写入到HIVE中时,报错提示我该表已经创建。覆盖写入不应该会将原来的数据删除再重写写入吗?而且我在hue查询的时候又显示该表没有创建?
收起
估价卡了,重启试试
报告相同问题?