现在遇到这个问题,网上搜到的解决办法是新建临时表,把需要的数据复制到临时表,但是我每秒钟都有读,且有新数据写入。如果把新数据全写到临时表,但是读取的话只能做判断先读临时表,没有数据在读老数据表。我感觉这种方式效率不咋样,有没更好的方式。可以批量删除百万级数据
1条回答 默认 最新
- 德玛洗牙 2020-06-10 17:24关注
可以考虑分区,按照你区分新老数据的规则,看能不能把新数据和老数据放在不同的分区上,删除数据的时候直接truncate对应分区就可以了
本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥15 请教一下各位,为什么我这个没有实现模拟点击
- ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
- ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
- ¥20 有关区间dp的问题求解
- ¥15 多电路系统共用电源的串扰问题
- ¥15 slam rangenet++配置
- ¥15 有没有研究水声通信方面的帮我改俩matlab代码
- ¥15 ubuntu子系统密码忘记
- ¥15 保护模式-系统加载-段寄存器
- ¥15 电脑桌面设定一个区域禁止鼠标操作