在linux系统上,大数据运行在内存中产生的中间数据一般有多大?最大会达到1个T吗?
一般最大值控制在什么范围合适?望各位有经验的大佬不吝赐教!
大数据运行在内存中产生的中间数据一般有多大?
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
5条回答 默认 最新
- cyq11512 2018-07-09 07:18关注
运行内存是可以设置的,以运行一个spark作业为例,提交作业时可以执行本次作业所需要的总共cpu核心数和总共的内存数,作业提交后spark 的 sparkContext 会向集群申请分配资源,集群会最大限度的提供资源,当然也存在申请90核心,集群只分配了70核心的情况。所以大数据运算的内存控制主要是看你的集群有多少资源,你愿意使用多少资源。
本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥20 wpf datagrid单元闪烁效果失灵
- ¥15 券商软件上市公司信息获取问题
- ¥100 ensp启动设备蓝屏,代码clock_watchdog_timeout
- ¥15 Android studio AVD启动不了
- ¥15 陆空双模式无人机怎么做
- ¥15 想咨询点问题,与算法转换,负荷预测,数字孪生有关
- ¥15 C#中的编译平台的区别影响
- ¥15 软件供应链安全是跟可靠性有关还是跟安全性有关?
- ¥15 电脑蓝屏logfilessrtsrttrail问题
- ¥20 关于wordpress建站遇到的问题!(语言-php)(相关搜索:云服务器)