qq_45866015 2022-06-07 00:40 采纳率: 91.1%
浏览 42
已结题

spark hadoop 怎么多人协作开发?

最近有个大数据mession,豆瓣读书分析什么的。需要小组合作开发,想问下怎么能使用同一个hdfs或者hadoop 自己有个云服务器 能用上吗
或者需要怎么搭建环境,小组成员能一起用得上

  • 写回答

3条回答 默认 最新

  • 三千烦恼丝xzh 2022-06-07 07:30
    关注

    这取决于你需要解决什么问题,如果只是临时跑一下批处理任务用到spark大可local模式跑跑完了,真要构建完整的hadoop生态你这一台云服务器够呛,内存低了甚至跑不起来全部组件

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(2条)

报告相同问题?

问题事件

  • 系统已结题 6月21日
  • 已采纳回答 6月13日
  • 修改了问题 6月7日
  • 创建了问题 6月7日