2 veryhehe2011 veryhehe2011 于 2016.01.22 17:17 提问

sbt assembly 报错,请大侠帮忙

assembly
[error] Not a valid command: assembly
[error] Not a valid project ID: assembly
[error] Expected ':' (if selecting a configuration)
[error] Not a valid key: assembly
[error] assembly
[error]

1个回答

devmiao
devmiao   Ds   Rxr 2016.01.22 23:33
已采纳
veryhehe2011
veryhehe2011 非常谢谢
2 年多之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
sbt assembly遇到的两个问题
1.  deduplicate file appears in two different jar: If multiple files share the same relative path (e.g. a resource named application.conf in multiple dependency JARs), the default strategy is to
Sbt assembly使用
Sbt assembly使用
sbt-assembly 发布 Scala 项目
sbt-assembly 是一个非常实用的sbt插件,可以将当前项目的二进制包以及依赖的所有第三方库都打包成一个jar包发布,即one-jar, 对于那种直接运行的应用程序很方便。 sbt版本:0.13.5  使用方法如下: 1、手工建立 ./project/assembly.sbt(用于下载sbt-assembly插件): addSbtPlugin("com.eed3si9n"
使用sbt assembly构建Spark项目
sbt-assembly是一个sbt插件,作用类似于Maven,用于创建一个包含依赖的JAR包场景:我在用sbt构建spark项目,但是在用sbt package打包生成jar包时,这个jar包并不没有包含项目的依赖,导致这个jar包提交到spark集群运行时,worker不能找到相应的类,sbt-assembly这个插件可以解决这个问题,可以将项目的依赖一同打包进jar包里。
Spark sbt-assembly 打包
因为要用spark2.0,而集群上cdh5.7.1的spark版本是1.6的,在单独使用spark2.0的时候出现了hbase包找不到的问题,因为spark-submit –jars属性引的包太多,就干脆直接用sbt将相关的jar包打成fat-jar,期间遇到了一些问题,在此记录一下。 开发环境使用的是idea,装了sbt插件后以为就可以直接在terminal命令窗口中直接运行sbt了,但实际上会告
sbt-assembly自我认识
在Spark项目中经常涉及到外部依赖包的部署问题,比较简便的方式是将项目编译的class和依赖包打到一个jar包中,方便上传部署,scala项目使用sbt-assembly来将工程class和依赖打到一个jar包中,类似maven的assembly。参考sbt-assembly项目地址: https://github.com/sbt/sbt-assembly 安装sbt-assem
sbt公布assembly解决jar包冲突 deduplicate: different file contents found in the following
sbt assembly     近期使用sbt战斗assembly发生故障时,包,在package什么时候,发生jar包冲突/文件冲突,两个相同class来自不同jar包classpath内心冲突。 有关详细信息:我有一个self4j的jar, hadoop-common-hdfs的jar包。当中hadoop-common-hdfs.jar内包括了self4j这个jar包,导致冲突。
sbt发布assembly解决jar包冲突问题 deduplicate: different file contents found in the following
一、问题定义最近在用sbt打assembly包时出现问题,在package的时候,发生jar包冲突/文件冲突问题,两个相同的class来自不同的jar包在classpath内引起冲突。具体是:我有一个self4j的jar, 还有一个hadoop-common-hdfs的jar包,其中hadoop-common-hdfs.jar内包含了self4j这个jar包,导致冲突。此类异常一般是由于打包不规范
intellij使用sbt工程创建指南
intellij使用sbt创建工程指南
sbt/sbt assembly 编译spark源码出错问题解决方法
sbt/sbt assembly 编译源码的时候,可