就比如kafka推送数据后,spark从kafka中拉取数据,再计算。 我直接写消费者 ,计算不行吗?
两者到底啥区别?

为啥使用spark或flink就是实时计算,我在java代码里直接写计算代码就不是了吗?
- 写回答
- 好问题 0 提建议
- 关注问题
- 邀请回答
-
2条回答 默认 最新
- stacksoverflow 2021-09-02 18:45关注
直接写消费者,行,也是实时计算。
区别是spark这种功能比较多,比如多态机器分布部署,容错机制,故障恢复等。
所以对于大型系统用spark这种更方便。
如果系统的要求没那么高,那肯定是自己写比较方便了。本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 1无用