囚生CY 2020-06-29 11:12 采纳率: 0%
浏览 130

pyspark进行表连接时,左连接后无法display,但是同样逻辑改写成右连接后可以成功display,这种情况是怎么回事?

这个问题之前也遇到过,都是spark逻辑无误,执行的结果表可以查看df.dtypes,df.columns等信息,但是无法df.count(),df.show()以及导出到外部文件。之前听前辈说是spark不支持循环连接,也没有搞明白怎么回事。最近又碰到了类似的情况,怎么调也调不好,阴差阳错把左连接反过来写成右连接就可以跑通了,有人碰到过这种情况吗?

图片说明

如图所示,笔者三天前写的group_df与group_id2name_df左连接是可以正常跑通的,但是今天就报错了,后来改成右连接又可以跑通,现在真的是丈二和尚摸不着头脑了。

  • 写回答

1条回答 默认 最新

  • zqbnqsdsmd 2020-08-13 08:15
    关注
    评论

报告相同问题?

悬赏问题

  • ¥15 素材场景中光线烘焙后灯光失效
  • ¥15 请教一下各位,为什么我这个没有实现模拟点击
  • ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
  • ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
  • ¥20 有关区间dp的问题求解
  • ¥15 多电路系统共用电源的串扰问题
  • ¥15 slam rangenet++配置
  • ¥15 有没有研究水声通信方面的帮我改俩matlab代码
  • ¥15 ubuntu子系统密码忘记
  • ¥15 保护模式-系统加载-段寄存器