deaftstill 2021-06-21 20:13 采纳率: 0%
浏览 8

重新编译spark-redshift遇到的问题

  1. 由于使用的s3的region是cn-north-1,需要对databrick提供的spark-redshift包进行重新编译
  2. 由于源码是sbt进行代码管理的,了解较少,遇到一些问题难以解决
  3. databricks/spark-redshift: Redshift data source for Apache Spark (github.com)下载源码后进行编译,发现有许多依赖问题无法解决
  4. 问题报的

    曾参考过Unresolved Dependency: org.spark-packages#sbt-spark-package · Issue #15 · databricks/sbt-spark-package (github.com)这里的解决方案

有加相关仓库配置但仍不生效

  • 写回答

1条回答 默认 最新

  • 憧憬blog 2023-03-14 21:14
    关注

    您好,关于重新编译spark-redshift遇到的问题,根据您提供的情况,建议您尝试以下解决方案:

    1. 确认您是否已经将sbt的版本升级为1.3以上,因为根据错误提示,可能是由于sbt版本太低导致的依赖问题。

    2. 设置Spark包仓库,根据您提供的参考链接,可以在sbt配置文件中添加以下内容:

      ```
      resolvers += "Spark Packages Repo" at "https://d/

    评论

报告相同问题?

悬赏问题

  • ¥15 YoloV5 第三方库的版本对照问题
  • ¥15 请完成下列相关问题!
  • ¥15 drone 推送镜像时候 purge: true 推送完毕后没有删除对应的镜像,手动拷贝到服务器执行结果正确在样才能让指令自动执行成功删除对应镜像,如何解决?
  • ¥15 求daily translation(DT)偏差订正方法的代码
  • ¥15 js调用html页面需要隐藏某个按钮
  • ¥15 ads仿真结果在圆图上是怎么读数的
  • ¥20 Cotex M3的调试和程序执行方式是什么样的?
  • ¥20 java项目连接sqlserver时报ssl相关错误
  • ¥15 一道python难题3
  • ¥15 牛顿斯科特系数表表示