假如我现在要批量提交很多数据保存到mysql数据库,我如何做到一边提交一边
检测数据库是否存在,如果存在的话就在数据库某字段加一。
sql语句如何实现
2条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
潭溪Zerg 2018-12-09 01:36最佳回答 专家已采纳使用insert update复合sql语句
例如你这里,insert into t(user, jubao) values( 'username', 1) on duplicate key update jubao = jubao + 1
前提是你需要保证user字段是唯一性,如果不是
alter table t add unique key(user);采纳该答案 已采纳该答案 专家已采纳评论解决 无用打赏举报微信扫一扫
分享评论登录 后可回复...
查看更多回答(1条)
报告相同问题?
提交
相关推荐 更多相似问题
- 2018-12-08 12:19回答 2 已采纳 使用insert update复合sql语句 例如你这里,insert into t(user, jubao) values( 'username', 1) on duplicate key upd
- 2018-11-01 12:59回答 2 已采纳 查询不出来,虽然一般来说,查询返回记录的顺序是插入顺序的逆序,但是这并不能得到保证。 要完成你的任务,必须再增加一个时间字段。 ``` SELECT t.* FROM (sele
- 2018-10-25 02:32回答 2 已采纳 ``` select (case warning when 'A' then '阿洛西林' when 'B' then '环酯红霉素' end) * from in_e
- 2020-12-15 14:16第二种方法使用的是SqlBulkCopy,使您可以用其他源的数据有效批量加载 SQL Server 表;第三种使用的方法是sql server中的表值参数方法,表值参数是 SQL Server 2008 中的新参数类型。表值参数是使用用户定义的表类型...
- 2021-09-17 10:26SherlockerSun的博客 springboot+oracle批量导入大数据 涉及技术 springboot mybatis oracle 1.mybatis中的sql语句 第一种写法 insert into table(...) (select ... from dual) union all (select ... from dual) <insert id="add...
- 2021-11-19 12:02Java笔记虾的博客 使用ibatis,纯sql插入 新增xml执行效率测试:xml执行时间比sql稍慢一些,50000条数据插入时间约为2000毫秒左右,平均时间是sql的2倍左右。 先贴出执行效果(数字代表执行的时间,单位毫秒): 测试代码: //测试类 ...
- 回答 4 已采纳 select t.tname,a.*,s.sname from teacher t left join course c on t.tno=c.tno left join ( select
- 2019-12-13 11:22回答 2 已采纳 是我理解有误吗?这个不就是按a,b,c分组,求d的和吗? select a,b,c,sum(d) d from table group by a,b,c
- 2016-12-13 11:51回答 7 已采纳 String 字符串的拼接问题,如果传递过来是null或""的话sqlstr 就不要拼接这个字段的值。 sqlstr = “select * from 暂住人员信息表 where”; int k
- 2020-09-08 16:24Diamond 、的博客 /// <summary>... /// 提供数据批量处理的方法。 /// </summary> public interface IBatcherProvider : IProviderService { /// <summary> /// 将 <see cref="DataTable"/>...
- 2020-05-26 11:14前行123的博客 * 批量插入数据, * @param baseMapper * @param list 数据 */ public static void batchInsert(BaseMapper baseMapper, List list) { //将List按照每200进行切割。如果数量过大会导致内存不够等其他问题,200...
- 2021-10-06 12:47孙中明的博客 spark.sql.sources.partitionColumnTypeInference.enabled 批量插入数据库数据,提交使用batch操作 package org.sparksql import org.apache.spark.sql.{DataFrame, SparkSession} import org.apache.spark.sql....
- 2018-07-11 06:58回答 16 已采纳 CREATE TABLE `User` ( `ID` int(11) unsigned NOT NULL AUTO_INCREMENT, `Name` varchar(255) COLLA
- 2017-10-30 04:56回答 4 已采纳 三个字段假设名称为name,time,info select t1.* from 表名 t1 inner join (select name,time from 表名 group by nam
- 2022-03-20 17:37回答 3 已采纳 子查询效率很低,用连接查询代码子查询。可以给适当的字段建立索引,加快查询速度。
- 2020-12-30 10:02weixin_39549852的博客 而批处理是:累积到一定数量,再一次性提交到数据库,减少了与数据库的交互次数,所以效率会大大提高但是使用了addBatch() -> executeBatch() 还是很慢解决:a.需配置 参数在数据库连接URL后面加上这个参数:...
- 2022-01-13 12:47苗萌萌的博客 ”如果将文中的“高性能计算机”换成“服务器集群”,将“科学工作者”换成“商业用户”,就与当前的云计算非常接近了。 政府推动云计算产业发展 政府机构应在云计算中扮演的五大角色为:用户、供应商、经纪人、店铺...
- 2013-07-14 11:14shihuacai的博客 // 读取sql文件 每五百个insert 语句由一个线程批量操作 public void readBatchSQL(InputStream is) throws IOException { BufferedReader bufferReader = new BufferedReader(new InputStreamReader(is, "UTF-8...
- 2017-07-26 03:30回答 6 已采纳 //mysql数据库写法 select a.id 工号,a.name 姓名,sum(a.late_day)/count(*) 每月平均延迟天数 from (select id,name,d
- 2020-07-13 23:23阿瑶不能一直是菜鸟的博客 python之数据文件批量清洗,入库 因为最近有一个数据接入清洗的项目,别的工具用起来有些觉得不太顺手,就学着写了一个数据清洗入库的通用模板,节省一些工作量。主要流程为:数据库连接---文件批量导入----文件批量...
- 没有解决我的问题, 去提问