了表心意.862 2023-06-08 15:08 采纳率: 57.1%
浏览 44
已结题

spark提交任务Exception in task 0.0 in stage 0.0 (TID 0) org.apache.hadoop.hdfs.BlockMissingException:

Exception in task 0.0 in stage 0.0 (TID 0) org.apache.hadoop.hdfs.BlockMissingException: Could not o

img

  • 写回答

1条回答 默认 最新

  • 不良使 新星创作者: python技术领域 2023-06-12 19:15
    关注

    由于在 Spark 任务中访问 HDFS 上不存在的块而导致的。一般情况下,当 Spark 任务尝试读取 HDFS 上的数据时,如果 HDFS 在某些节点上表示数据块不可用,则会出现此错误。检查 HDFS 是否完好:可以通过命令行或 Hadoop 管理控制台来检查 HDFS 是否正常运行,并且是否存在数据块缺失等问题。检查一下 Spark 配置文件是否正确设置了 HDFS 的访问权限,以确保 Spark 程序能够正确地读取 HDFS 中的数据。👀👀

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 6月21日
  • 已采纳回答 6月13日
  • 创建了问题 6月8日