梦忆墨染 2024-06-03 16:42 采纳率: 53.8%
浏览 6

中的your-spark-app.jar是个jars包,还是jar文件,如果是jar文件该怎么找

spark-submit --class SparkJoin your-spark-app.jar "D:\JAVA homework\SparkRddDemo1\src\main\scala\SparkJoin\ml-1m\ratings.dat" "D:\JAVA homework\SparkRddDemo1\src\main\scala\SparkJoin\ml-1m\movies.dat" "D:\JAVA homework\SparkRddDemo1\src\main\scala\SparkJoin\ml-1m\output"

中的your-spark-app.jar是个jars包,还是jar文件,如果是jar文件该怎么找file:///D:/Spark/spark-2.3.1-bin-hadoop2.6/spark-2.3.1-bin-hadoop2.6/jars/

  • 写回答

2条回答 默认 最新

  • 阿里嘎多学长 2024-06-03 16:42
    关注

    以下内容由CHATGPT及阿里嘎多学长共同生成、有用望采纳:


    在Spark提交命令中,your-spark-app.jar通常指的是一个包含你的Spark应用程序代码的JAR文件。这个JAR文件是编译你的应用程序后生成的,它包含了应用程序的类文件和任何必要的资源文件。它不是一个JAR包,而是一个单独的JAR文件。

    要找到your-spark-app.jar,你需要按照以下步骤操作:

    1. 编译你的Spark应用程序:使用Scala或Java编译器编译你的Spark应用程序,生成JAR文件。如果你使用的是Scala,通常使用sbt package命令来编译和打包应用程序。

    2. 定位JAR文件:编译完成后,JAR文件通常位于项目的target目录下,具体路径取决于你的构建工具和项目配置。

    3. 使用JAR文件:一旦找到JAR文件,你就可以在spark-submit命令中使用它了。

    例如,如果你的项目结构如下:

    SparkRddDemo1/
    |-- src/
    |   |-- main/
    |       |-- scala/
    |           |-- SparkJoin/
    |-- target/
        |-- scala-2.11/
            |-- your-spark-app.jar
    

    那么,your-spark-app.jar将位于SparkRddDemo1/target/scala-2.11/目录下。

    至于你提供的路径file:///D:/Spark/spark-2.3.1-bin-hadoop2.6/spark-2.3.1-bin-hadoop2.6/jars/,这是Spark的安装目录下的jars文件夹,它包含了Spark运行时所需的所有JAR文件。your-spark-app.jar不应该在这个目录下,它应该是你单独编译生成的。

    如果你需要编译Scala项目并生成JAR文件,可以使用以下命令(假设你使用的是sbt):

    sbt clean
    sbt package
    

    这将清理之前的构建产物并重新编译打包你的应用程序。

    参考资料

    请注意,这些链接提供了关于Spark和sbt的一般信息,具体的编译和打包步骤可能需要根据你的项目配置和环境进行调整。

    评论 编辑记录

报告相同问题?

问题事件

  • 创建了问题 6月3日

悬赏问题

  • ¥20 公众号如何实现点击超链接后自动发送文字
  • ¥15 用php隐藏类名和增加类名
  • ¥15 算法设计与分析课程的提问
  • ¥15 用MATLAB汇总拟合图
  • ¥15 智能除草机器人方案设计
  • ¥15 对接wps协作接口实现消息发送
  • ¥15 SQLite 出现“Database is locked” 如何解决?
  • ¥15 已经加了学校的隶属邮箱了,为什么还是进不去github education?😭
  • ¥15 求会做聚类,TCN的朋友有偿线上指导。以下是目前遇到的问题
  • ¥100 无网格伽辽金方法研究裂纹扩展的程序