b447803354 2017-02-08 07:40 采纳率: 0%
浏览 1369

Spark部署的问题,求生产环境下Spark工作模式的最佳实践

我目前搭建的Spark是Spark Standalone模式的,有1台Master服务器,2台Worker服务器。
我用java写好程序之后,我的程序要怎么样部署到Spark上。因为Spark的example运行的时候,只能通过命令运行,但是如果用在生产上,有什么好的办法吗?

  • 写回答

1条回答 默认 最新

  • devmiao 2017-02-08 21:17
    关注
    评论

报告相同问题?

悬赏问题

  • ¥100 Jenkins自动化部署—悬赏100元
  • ¥15 关于#python#的问题:求帮写python代码
  • ¥20 MATLAB画图图形出现上下震荡的线条
  • ¥15 关于#windows#的问题:怎么用WIN 11系统的电脑 克隆WIN NT3.51-4.0系统的硬盘
  • ¥15 perl MISA分析p3_in脚本出错
  • ¥15 k8s部署jupyterlab,jupyterlab保存不了文件
  • ¥15 ubuntu虚拟机打包apk错误
  • ¥199 rust编程架构设计的方案 有偿
  • ¥15 回答4f系统的像差计算
  • ¥15 java如何提取出pdf里的文字?