现在遇到这个问题,网上搜到的解决办法是新建临时表,把需要的数据复制到临时表,但是我每秒钟都有读,且有新数据写入。如果把新数据全写到临时表,但是读取的话只能做判断先读临时表,没有数据在读老数据表。我感觉这种方式效率不咋样,有没更好的方式。可以批量删除百万级数据
1条回答 默认 最新
- 德玛洗牙 2020-06-10 17:24关注
可以考虑分区,按照你区分新老数据的规则,看能不能把新数据和老数据放在不同的分区上,删除数据的时候直接truncate对应分区就可以了
本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥50 gki vendor hook
- ¥15 centos7中sudo命令无法使用
- ¥15 灰狼算法和蚁群算法如何结合
- ¥15 这是一个利用ESP32自带按键和LED控制的录像代码,编译过程出现问题,请解决并且指出错误,指导如何处理 ,协助完成代码并上传代码
- ¥20 stm32f103,hal库 hal_usart_receive函数接收不到数据。
- ¥20 求结果和代码,sas利用OPTEX程序和D-efficiency生成正交集
- ¥50 adb连接不到手机是怎么回事?
- ¥20 抓取数据时发生错误: get_mooncake_data() missing 1 required positional argument: 'driver'的问题,怎么改出正确的爬虫代码?
- ¥15 vs2022无法联网
- ¥15 TCP的客户端和服务器的互联