别卷了啊 2021-09-02 17:59 采纳率: 50%
浏览 37
已结题

为啥使用spark或flink就是实时计算,我在java代码里直接写计算代码就不是了吗?

就比如kafka推送数据后,spark从kafka中拉取数据,再计算。 我直接写消费者 ,计算不行吗?
两者到底啥区别?

  • 写回答

2条回答 默认 最新

  • stacksoverflow 2021-09-02 18:45
    关注

    直接写消费者,行,也是实时计算。
    区别是spark这种功能比较多,比如多态机器分布部署,容错机制,故障恢复等。
    所以对于大型系统用spark这种更方便。
    如果系统的要求没那么高,那肯定是自己写比较方便了。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 9月17日
  • 已采纳回答 9月9日
  • 创建了问题 9月2日

悬赏问题

  • ¥30 这是哪个作者做的宝宝起名网站
  • ¥60 版本过低apk如何修改可以兼容新的安卓系统
  • ¥25 由IPR导致的DRIVER_POWER_STATE_FAILURE蓝屏
  • ¥50 有数据,怎么建立模型求影响全要素生产率的因素
  • ¥50 有数据,怎么用matlab求全要素生产率
  • ¥15 TI的insta-spin例程
  • ¥15 完成下列问题完成下列问题
  • ¥15 C#算法问题, 不知道怎么处理这个数据的转换
  • ¥15 YoloV5 第三方库的版本对照问题
  • ¥15 请完成下列相关问题!