最近有个需求需要对一个比较大的业务表做数据同步(一亿左右数据,每天都在涨),有没有高效的方法处理,(复制和日志传送都比较耗资源,merge又很慢),求助啊
2条回答 默认 最新
关注 大表一般要采用分区,同步的话大表是不建议每次全量同步的,不是是否可以找到增量字段,如有update time或者自增的id,以updatetime为例:
方法步骤如下
1.第一次全量抽取这张表,并设置日志表记录抽取表updatetime的 start time为19000-01-01,end time为getdate();这次耗时比慢;
2.第二次采用增量抽取,取日志表内的end time为这次抽取的starttime,这次的end time为getdate(),每天如此反复;
3.增量数据先不要直接进到目标表表,先把增量数据放进一个中间过渡表,然后在采用merge的写法;
--以上适合一般大小的表;
4。对于你说到的大表,是要做分区的,分区的话有个switch partition的方法来处理分区,可以高并发的处理分区数据,这个可以很快,你可以试试。本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报
悬赏问题
- ¥20 西门子S7-Graph,S7-300,梯形图
- ¥50 用易语言http 访问不了网页
- ¥50 safari浏览器fetch提交数据后数据丢失问题
- ¥15 matlab不知道怎么改,求解答!!
- ¥15 永磁直线电机的电流环pi调不出来
- ¥15 用stata实现聚类的代码
- ¥15 请问paddlehub能支持移动端开发吗?在Android studio上该如何部署?
- ¥20 docker里部署springboot项目,访问不到扬声器
- ¥15 netty整合springboot之后自动重连失效
- ¥15 悬赏!微信开发者工具报错,求帮改