mysql 单表数据行10亿

mysql 单表数据行10亿 频繁的查询 修改 删除 通过分区和索引 读写分离 可以解决 效率问题吗 ? 还是必须要分表那?

3个回答

分表,读写分离,都用上吧。

必须分表。大概每张表600-800万数据性能会比较好。
针对频繁查询的创建索引,或者联合索引。
读写分离肯定也要做。
频繁的查询,修改,删除,还数据这么大,那些数据是否都真的有用哈?如果没用可以考虑垂直分表,把不用的数据丢一边去。
另外这么大数据可以考虑使用elasticsearch等搜索引擎来做查询。

建议分表,如果业务是读多写少可以加上读写分离

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
立即提问
相关内容推荐