「已注销」 2020-06-30 17:35 采纳率: 0%
浏览 157

批量数据插入优化的问题。

有个需求,把一张表的数据拆分,每条数据都要经过一些逻辑检查,插入到另外的表, 一条数据的插入和检查是同步进行的,不能拆开进行,
如果数据量大的话 性能很慢,连接也有可能断开,这种情形改怎么优化?

  • 写回答

2条回答 默认 最新

  • Json-Huang 2020-06-30 20:54
    关注

    建议把检验后的每条数据先保存在内存或缓存中,然后使用批量插入方法(不是一条条插入),比如每次插入2000条,即2000条只需跟数据库建立一次连接,减少数据库压力。

    类似这样的批量插入语句:
    INSERT INTO table_name (column1,column2,column3,...)
    VALUES (value1,value2,value3,...),
     (value1,value2,value3,…),
     ...
     (value1,value2,value3,…);
    
    评论

报告相同问题?

悬赏问题

  • ¥100 set_link_state
  • ¥15 虚幻5 UE美术毛发渲染
  • ¥15 CVRP 图论 物流运输优化
  • ¥15 Tableau online 嵌入ppt失败
  • ¥100 支付宝网页转账系统不识别账号
  • ¥15 基于单片机的靶位控制系统
  • ¥15 真我手机蓝牙传输进度消息被关闭了,怎么打开?(关键词-消息通知)
  • ¥15 装 pytorch 的时候出了好多问题,遇到这种情况怎么处理?
  • ¥20 IOS游览器某宝手机网页版自动立即购买JavaScript脚本
  • ¥15 手机接入宽带网线,如何释放宽带全部速度