truebeliever 2015-03-30 00:28
浏览 2265

Spark程序报错“Task not serializable”

用java写的Spark程序在运行时报错“org.apache.spark.SparkException: Task not serializable”,我在一个类里实现数据处理的功能,main函数定义在另一个类内部,在main函数中调用前一个类中的方法。虽然两个类都实现了Serilizable接口,但是还是无济于事。求大虾赐教!

  • 写回答

0条回答

    报告相同问题?

    悬赏问题

    • ¥20 有关区间dp的问题求解
    • ¥15 多电路系统共用电源的串扰问题
    • ¥15 slam rangenet++配置
    • ¥15 有没有研究水声通信方面的帮我改俩matlab代码
    • ¥15 对于相关问题的求解与代码
    • ¥15 ubuntu子系统密码忘记
    • ¥15 信号傅里叶变换在matlab上遇到的小问题请求帮助
    • ¥15 保护模式-系统加载-段寄存器
    • ¥15 电脑桌面设定一个区域禁止鼠标操作
    • ¥15 求NPF226060磁芯的详细资料