可乐味的小明同学 2023-03-22 11:45 采纳率: 20%
浏览 17

pyspark运行报错

pyspark读取文件时报这个错误,网上找了好多都没有妥善解决,给支个招,感谢

img

  • 写回答

2条回答 默认 最新

  • 凡人码工 2023-03-22 13:52
    关注

    试试这样搞

    根据你提供的错误信息,可能是因为你的pyspark代码中使用了Hadoop的API,但是缺少了Hadoop的配置文件。你可以尝试在代码中添加如下的配置代码:

    from pyspark import SparkConf, SparkContext
    
    conf = SparkConf().setAppName("appName").setMaster("local")
    conf.set("spark.hadoop.fs.defaultFS", "hdfs://localhost:9000")
    sc = SparkContext(conf=conf)
    
    

    其中,spark.hadoop.fs.defaultFS的值应该是你的Hadoop的namenode的地址和端口号。如果你的Hadoop是在本地运行的,那么地址应该是hdfs://localhost:9000。如果你的Hadoop是在集群中运行的,那么地址应该是你的namenode的地址和端口号。

    评论

报告相同问题?

问题事件

  • 创建了问题 3月22日

悬赏问题

  • ¥15 is not in the mmseg::model registry。报错,模型注册表找不到自定义模块。
  • ¥15 安装quartus II18.1时弹出此error,怎么解决?
  • ¥15 keil官网下载psn序列号在哪
  • ¥15 想用adb命令做一个通话软件,播放录音
  • ¥30 Pytorch深度学习服务器跑不通问题解决?
  • ¥15 部分客户订单定位有误的问题
  • ¥15 如何在maya程序中利用python编写领子和褶裥的模型的方法
  • ¥15 Bug traq 数据包 大概什么价
  • ¥15 在anaconda上pytorch和paddle paddle下载报错
  • ¥25 自动填写QQ腾讯文档收集表