m0_65237932 2024-04-19 20:18 采纳率: 0%
浏览 6

spark-mysql

img


在spark-sql建表的时候遇到这个问题,开始以为自己打错了,检查了好多遍,发现没错,报错了,百度了很久都没找到原因,求解决

  • 写回答

4条回答 默认 最新

  • 扶光之影 2024-04-19 21:11
    关注

    我听别人说在Spark SQL中,不支持使用 ​auto_increment​和 ​int(3)​语法来定义自增主键。通常情况下,Spark SQL使用Hive的语法。
    你试一试

    CREATE TABLE people (
        id INT,
        xm STRING,
        xb STRING,
        csny DATE,
        PRIMARY KEY (id)
    );
    
    

    将 ​id​列定义为整数类型而不是 ​auto_increment​,在创建表后通过 ​AUTO_INCREMENT​选项进行设置。

    评论

报告相同问题?

问题事件

  • 创建了问题 4月19日

悬赏问题

  • ¥100 set_link_state
  • ¥15 虚幻5 UE美术毛发渲染
  • ¥15 CVRP 图论 物流运输优化
  • ¥15 Tableau online 嵌入ppt失败
  • ¥100 支付宝网页转账系统不识别账号
  • ¥15 基于单片机的靶位控制系统
  • ¥15 真我手机蓝牙传输进度消息被关闭了,怎么打开?(关键词-消息通知)
  • ¥15 装 pytorch 的时候出了好多问题,遇到这种情况怎么处理?
  • ¥20 IOS游览器某宝手机网页版自动立即购买JavaScript脚本
  • ¥15 手机接入宽带网线,如何释放宽带全部速度