我在使用sparksql时,发现一旦使用分区功能,就会出错,查询结果只有表头没有数据。各位大神知不知道怎么解决。没有分区的spark-sql和普通方法有啥区别啊。 String[] predicates = new...
1条回答 默认 最新
- yyf960126 2018-05-14 06:41关注
要不你就添加.option("header","true"),就能把你第一行的数据当作表头了,要不就是用_c数字 默认列名
来做分区解决 无用评论 打赏 举报
悬赏问题
- ¥15 基于卷积神经网络的声纹识别
- ¥15 Python中的request,如何使用ssr节点,通过代理requests网页。本人在泰国,需要用大陆ip才能玩网页游戏,合法合规。
- ¥100 为什么这个恒流源电路不能恒流?
- ¥15 有偿求跨组件数据流路径图
- ¥15 写一个方法checkPerson,入参实体类Person,出参布尔值
- ¥15 我想咨询一下路面纹理三维点云数据处理的一些问题,上传的坐标文件里是怎么对无序点进行编号的,以及xy坐标在处理的时候是进行整体模型分片处理的吗
- ¥15 CSAPPattacklab
- ¥15 一直显示正在等待HID—ISP
- ¥15 Python turtle 画图
- ¥15 stm32开发clion时遇到的编译问题