pyspark读取文件时报这个错误,网上找了好多都没有妥善解决,给支个招,感谢
2条回答 默认 最新
- 凡人码工 2023-03-22 13:52关注
试试这样搞
根据你提供的错误信息,可能是因为你的pyspark代码中使用了Hadoop的API,但是缺少了Hadoop的配置文件。你可以尝试在代码中添加如下的配置代码:
from pyspark import SparkConf, SparkContext conf = SparkConf().setAppName("appName").setMaster("local") conf.set("spark.hadoop.fs.defaultFS", "hdfs://localhost:9000") sc = SparkContext(conf=conf)
其中,spark.hadoop.fs.defaultFS的值应该是你的Hadoop的namenode的地址和端口号。如果你的Hadoop是在本地运行的,那么地址应该是hdfs://localhost:9000。如果你的Hadoop是在集群中运行的,那么地址应该是你的namenode的地址和端口号。
解决 无用评论 打赏 举报
悬赏问题
- ¥15 is not in the mmseg::model registry。报错,模型注册表找不到自定义模块。
- ¥15 安装quartus II18.1时弹出此error,怎么解决?
- ¥15 keil官网下载psn序列号在哪
- ¥15 想用adb命令做一个通话软件,播放录音
- ¥30 Pytorch深度学习服务器跑不通问题解决?
- ¥15 部分客户订单定位有误的问题
- ¥15 如何在maya程序中利用python编写领子和褶裥的模型的方法
- ¥15 Bug traq 数据包 大概什么价
- ¥15 在anaconda上pytorch和paddle paddle下载报错
- ¥25 自动填写QQ腾讯文档收集表