梅川酷芷 2020-06-10 12:03 采纳率: 50%
浏览 175
已采纳

mysql 百万数据删除问题

现在遇到这个问题,网上搜到的解决办法是新建临时表,把需要的数据复制到临时表,但是我每秒钟都有读,且有新数据写入。如果把新数据全写到临时表,但是读取的话只能做判断先读临时表,没有数据在读老数据表。我感觉这种方式效率不咋样,有没更好的方式。可以批量删除百万级数据

  • 写回答

1条回答 默认 最新

  • 德玛洗牙 2020-06-10 17:24
    关注

    可以考虑分区,按照你区分新老数据的规则,看能不能把新数据和老数据放在不同的分区上,删除数据的时候直接truncate对应分区就可以了

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 已采纳回答 9月17日

悬赏问题

  • ¥30 STM32 INMP441无法读取数据
  • ¥100 求汇川机器人IRCB300控制器和示教器同版本升级固件文件升级包
  • ¥15 用visualstudio2022创建vue项目后无法启动
  • ¥15 x趋于0时tanx-sinx极限可以拆开算吗
  • ¥500 把面具戴到人脸上,请大家贡献智慧
  • ¥15 任意一个散点图自己下载其js脚本文件并做成独立的案例页面,不要作在线的,要离线状态。
  • ¥15 各位 帮我看看如何写代码,打出来的图形要和如下图呈现的一样,急
  • ¥30 c#打开word开启修订并实时显示批注
  • ¥15 如何解决ldsc的这条报错/index error
  • ¥15 VS2022+WDK驱动开发环境