别卷了啊 2021-09-02 17:59 采纳率: 50%
浏览 40
已结题

为啥使用spark或flink就是实时计算,我在java代码里直接写计算代码就不是了吗?

就比如kafka推送数据后,spark从kafka中拉取数据,再计算。 我直接写消费者 ,计算不行吗?
两者到底啥区别?

  • 写回答

2条回答 默认 最新

  • stacksoverflow 2021-09-02 18:45
    关注

    直接写消费者,行,也是实时计算。
    区别是spark这种功能比较多,比如多态机器分布部署,容错机制,故障恢复等。
    所以对于大型系统用spark这种更方便。
    如果系统的要求没那么高,那肯定是自己写比较方便了。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 9月17日
  • 已采纳回答 9月9日
  • 创建了问题 9月2日