有个需求,把一张表的数据拆分,每条数据都要经过一些逻辑检查,插入到另外的表, 一条数据的插入和检查是同步进行的,不能拆开进行,
如果数据量大的话 性能很慢,连接也有可能断开,这种情形改怎么优化?
批量数据插入优化的问题。
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
2条回答 默认 最新
- Json-Huang 2020-06-30 20:54关注
建议把检验后的每条数据先保存在内存或缓存中,然后使用批量插入方法(不是一条条插入),比如每次插入2000条,即2000条只需跟数据库建立一次连接,减少数据库压力。
类似这样的批量插入语句: INSERT INTO table_name (column1,column2,column3,...) VALUES (value1,value2,value3,...), (value1,value2,value3,…), ... (value1,value2,value3,…);
解决 无用评论 打赏 举报
悬赏问题
- ¥100 set_link_state
- ¥15 虚幻5 UE美术毛发渲染
- ¥15 CVRP 图论 物流运输优化
- ¥15 Tableau online 嵌入ppt失败
- ¥100 支付宝网页转账系统不识别账号
- ¥15 基于单片机的靶位控制系统
- ¥15 真我手机蓝牙传输进度消息被关闭了,怎么打开?(关键词-消息通知)
- ¥15 装 pytorch 的时候出了好多问题,遇到这种情况怎么处理?
- ¥20 IOS游览器某宝手机网页版自动立即购买JavaScript脚本
- ¥15 手机接入宽带网线,如何释放宽带全部速度