有这样一个需求 七个左右的客户,每隔半小时左右都会往各自账户下上传200万左右的数据量,然后同时大概每个客户下又有40到200个用户不停的获取这些数据,并且获取完会删除,每次获取40到300条左右数据,使用完后会再次获取,该用什么方式去处理并发,保证数据没有被重复获取,我用mysql来存储读写感觉性能不太行,而且并发会导致重复的获取,删除又造成死锁,改成抽样获取性能又太差,死锁问题也无法避免
3条回答 默认 最新
- 技术专家团-辉煌仪奇 2021-12-14 09:36关注
尝试使用redis,数据结构设置好了以后完全没有问题,也可以读写分库,比如读取为1库,写入为2库,将其区分开来,读取库设置过期时间,过期后数据自动删除,写入库设置自动任务.读取库设置自动任务或者定时任务,将数据不停地往读取库更新.
redis完全是内存数据库,可以实现是要的要求本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥20 docker里部署springboot项目,访问不到扬声器
- ¥15 netty整合springboot之后自动重连失效
- ¥15 悬赏!微信开发者工具报错,求帮改
- ¥20 wireshark抓不到vlan
- ¥20 关于#stm32#的问题:需要指导自动酸碱滴定仪的原理图程序代码及仿真
- ¥20 设计一款异域新娘的视频相亲软件需要哪些技术支持
- ¥15 stata安慰剂检验作图但是真实值不出现在图上
- ¥15 c程序不知道为什么得不到结果
- ¥15 键盘指令混乱情况下的启动盘系统重装
- ¥40 复杂的限制性的商函数处理