在spark-sql建表的时候遇到这个问题,开始以为自己打错了,检查了好多遍,发现没错,报错了,百度了很久都没找到原因,求解决
spark-mysql
在spark-sql建表的时候遇到这个问题,开始以为自己打错了,检查了好多遍,发现没错,报错了,百度了很久都没找到原因,求解决
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
4条回答 默认 最新
- 扶光之影 2024-04-19 21:11关注
我听别人说在Spark SQL中,不支持使用 auto_increment和 int(3)语法来定义自增主键。通常情况下,Spark SQL使用Hive的语法。
你试一试CREATE TABLE people ( id INT, xm STRING, xb STRING, csny DATE, PRIMARY KEY (id) );
将 id列定义为整数类型而不是 auto_increment,在创建表后通过 AUTO_INCREMENT选项进行设置。
解决 无用评论 打赏 举报
悬赏问题
- ¥100 set_link_state
- ¥15 虚幻5 UE美术毛发渲染
- ¥15 CVRP 图论 物流运输优化
- ¥15 Tableau online 嵌入ppt失败
- ¥100 支付宝网页转账系统不识别账号
- ¥15 基于单片机的靶位控制系统
- ¥15 真我手机蓝牙传输进度消息被关闭了,怎么打开?(关键词-消息通知)
- ¥15 装 pytorch 的时候出了好多问题,遇到这种情况怎么处理?
- ¥20 IOS游览器某宝手机网页版自动立即购买JavaScript脚本
- ¥15 手机接入宽带网线,如何释放宽带全部速度