囩海 2021-12-13 23:39 采纳率: 100%
浏览 35
已结题

关于高并发数据的读写该怎么处理

有这样一个需求 七个左右的客户,每隔半小时左右都会往各自账户下上传200万左右的数据量,然后同时大概每个客户下又有40到200个用户不停的获取这些数据,并且获取完会删除,每次获取40到300条左右数据,使用完后会再次获取,该用什么方式去处理并发,保证数据没有被重复获取,我用mysql来存储读写感觉性能不太行,而且并发会导致重复的获取,删除又造成死锁,改成抽样获取性能又太差,死锁问题也无法避免

  • 写回答

3条回答 默认 最新

  • 关注

    尝试使用redis,数据结构设置好了以后完全没有问题,也可以读写分库,比如读取为1库,写入为2库,将其区分开来,读取库设置过期时间,过期后数据自动删除,写入库设置自动任务.读取库设置自动任务或者定时任务,将数据不停地往读取库更新.
    redis完全是内存数据库,可以实现是要的要求

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(2条)

报告相同问题?

问题事件

  • 系统已结题 12月22日
  • 已采纳回答 12月14日
  • 创建了问题 12月13日

悬赏问题

  • ¥20 docker里部署springboot项目,访问不到扬声器
  • ¥15 netty整合springboot之后自动重连失效
  • ¥15 悬赏!微信开发者工具报错,求帮改
  • ¥20 wireshark抓不到vlan
  • ¥20 关于#stm32#的问题:需要指导自动酸碱滴定仪的原理图程序代码及仿真
  • ¥20 设计一款异域新娘的视频相亲软件需要哪些技术支持
  • ¥15 stata安慰剂检验作图但是真实值不出现在图上
  • ¥15 c程序不知道为什么得不到结果
  • ¥15 键盘指令混乱情况下的启动盘系统重装
  • ¥40 复杂的限制性的商函数处理