weixin_44163826
A冠亚达
采纳率0%
2018-12-19 11:10

mysql 单表数据行10亿

mysql 单表数据行10亿 频繁的查询 修改 删除 通过分区和索引 读写分离 可以解决 效率问题吗 ? 还是必须要分表那?

  • 点赞
  • 写回答
  • 关注问题
  • 收藏
  • 复制链接分享
  • 邀请回答

3条回答

  • qq_34457768 黄如果 3年前

    建议分表,如果业务是读多写少可以加上读写分离

    点赞 评论 复制链接分享
  • skyboertao 风姿-懒人 3年前

    必须分表。大概每张表600-800万数据性能会比较好。
    针对频繁查询的创建索引,或者联合索引。
    读写分离肯定也要做。
    频繁的查询,修改,删除,还数据这么大,那些数据是否都真的有用哈?如果没用可以考虑垂直分表,把不用的数据丢一边去。
    另外这么大数据可以考虑使用elasticsearch等搜索引擎来做查询。

    点赞 评论 复制链接分享
  • en_joker 孤芳不自賞 3年前

    分表,读写分离,都用上吧。

    点赞 评论 复制链接分享

相关推荐