我在使用sparksql时,发现一旦使用分区功能,就会出错,查询结果只有表头没有数据。各位大神知不知道怎么解决。没有分区的spark-sql和普通方法有啥区别啊。 String[] predicates = new...
1条回答 默认 最新
- yyf960126 2018-05-14 06:41关注
要不你就添加.option("header","true"),就能把你第一行的数据当作表头了,要不就是用_c数字 默认列名
来做分区解决 无用评论 打赏 举报
悬赏问题
- ¥15 drone 推送镜像时候 purge: true 推送完毕后没有删除对应的镜像,手动拷贝到服务器执行结果正确在样才能让指令自动执行成功删除对应镜像,如何解决?
- ¥15 求daily translation(DT)偏差订正方法的代码
- ¥15 js调用html页面需要隐藏某个按钮
- ¥15 ads仿真结果在圆图上是怎么读数的
- ¥20 Cotex M3的调试和程序执行方式是什么样的?
- ¥20 java项目连接sqlserver时报ssl相关错误
- ¥15 一道python难题3
- ¥15 牛顿斯科特系数表表示
- ¥15 arduino 步进电机
- ¥20 程序进入HardFault_Handler