用python做spark集群项目的时候,远程解释器运行,报错 AttributeError: module 'pyspark.rdd' has no attribute 'V'
用本地解释器好使,把代码提交到集群运行也好使,就是在本地远程集群解释器时候报错.请问该怎么解决
pyspark远程解释器报错
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
1条回答 默认 最新
- kakaccys 2022-08-16 13:21关注
因为spark的分布机器里没有该python环境,最好先把python打包,然后用spark-submit --py-files将python包分发至各机器,然后命令的python用相对路径就行了。
解决 无用评论 打赏 举报
悬赏问题
- ¥15 Python爬取指定微博话题下的内容,保存为txt
- ¥15 vue2登录调用后端接口如何实现
- ¥65 永磁型步进电机PID算法
- ¥15 sqlite 附加(attach database)加密数据库时,返回26是什么原因呢?
- ¥88 找成都本地经验丰富懂小程序开发的技术大咖
- ¥15 如何处理复杂数据表格的除法运算
- ¥15 如何用stc8h1k08的片子做485数据透传的功能?(关键词-串口)
- ¥15 有兄弟姐妹会用word插图功能制作类似citespace的图片吗?
- ¥15 latex怎么处理论文引理引用参考文献
- ¥15 请教:如何用postman调用本地虚拟机区块链接上的合约?