如果系统上没做数据可视化大屏 那是不是不用去写spark了? spark和hadoop的用处就是大屏幕统计吗?
1条回答 默认 最新
- 欧阳小伙 2022-04-22 23:23关注
spark:主要用于海量数据的统计计算,跟做不做大屏没关系,比如进行机器学习。
hadoop:主要用到的就是数据的分布式存储,海量的数据和日志,如果想留存,就用它来存储吧。
做大屏统计是比较直观的数据结果的展示而已。本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥15 下图接收小电路,谁知道原理
- ¥15 装 pytorch 的时候出了好多问题,遇到这种情况怎么处理?
- ¥20 IOS游览器某宝手机网页版自动立即购买JavaScript脚本
- ¥15 手机接入宽带网线,如何释放宽带全部速度
- ¥30 关于#r语言#的问题:如何对R语言中mfgarch包中构建的garch-midas模型进行样本内长期波动率预测和样本外长期波动率预测
- ¥15 ETLCloud 处理json多层级问题
- ¥15 matlab中使用gurobi时报错
- ¥15 这个主板怎么能扩出一两个sata口
- ¥15 不是,这到底错哪儿了😭
- ¥15 2020长安杯与连接网探