就比如kafka推送数据后,spark从kafka中拉取数据,再计算。 我直接写消费者 ,计算不行吗?
两者到底啥区别?
为啥使用spark或flink就是实时计算,我在java代码里直接写计算代码就不是了吗?
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
2条回答 默认 最新
- stacksoverflow 2021-09-02 18:45关注
直接写消费者,行,也是实时计算。
区别是spark这种功能比较多,比如多态机器分布部署,容错机制,故障恢复等。
所以对于大型系统用spark这种更方便。
如果系统的要求没那么高,那肯定是自己写比较方便了。本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 1无用
悬赏问题
- ¥30 这是哪个作者做的宝宝起名网站
- ¥60 版本过低apk如何修改可以兼容新的安卓系统
- ¥25 由IPR导致的DRIVER_POWER_STATE_FAILURE蓝屏
- ¥50 有数据,怎么建立模型求影响全要素生产率的因素
- ¥50 有数据,怎么用matlab求全要素生产率
- ¥15 TI的insta-spin例程
- ¥15 完成下列问题完成下列问题
- ¥15 C#算法问题, 不知道怎么处理这个数据的转换
- ¥15 YoloV5 第三方库的版本对照问题
- ¥15 请完成下列相关问题!