2 xunileida xunileida 于 2013.10.26 17:29 提问

update sybase越来越慢,求大神解救

有个超大的文本文件(4G, 八百多万行),现在用Perl写了个脚本,逐行读取该文本文件,利用读取的内容进行一些处理后逐批次地更新到sybase数据库,例如一千行一批次进行commit,起初程序运行还比较顺畅,十几秒就能update到数据库一批,后来update一批的时间越来越长,竟然多达三四分钟,百思不得其解,求各位数据库大神帮忙分析下有可能是什么原因,跪谢了!

1个回答

stephen_h
stephen_h   2013.10.26 17:48

删掉索引,插入数据后再重建索引。

Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
sybase分页查询优化支持排序
上一篇( Sybase 海量数据分页瞬间完成)是不支持排序的,这次又写了一个支持排序的,不过要在数据库排序列加上索引,并在程序中指定索引名字。(注:sybase的jdbc API不是很智能不指定就没用使用索引搞的速度很慢) 带排序分页代码下载 测试代码如下:  /**   * @param args   * @throws InterruptedException   */  public
希捷1T移动硬盘复制文件速度越来越慢
我用的是希捷1T移动硬盘,正品。复制大量文件时,会出现:刚开始速度很快,可以达到70多M/s,可以是紧提前速度越来越慢,下降到20M/s时基本稳定。记得也有一次竟然下降到了6M/s,简直不可思议。据说这是Win7系统的通病,解决办法如下:       控制面板-程序-程序和功能-打开或关闭windows功能-把最后一项“远程差分压缩”前的对勾去掉,重启电脑。
(百万数据量级别)java下的mysql数据库插入越插越慢的问题解决
http://blog.csdn.net/qq547276542/article/details/75097602 最近的项目需要导入大量的数据,插入的过程中还需要边查询边插入。插入的数据量在100w左右。一开始觉得100w的数据量不大,于是就插啊插,吃了个饭,回来一看,在插入了50多w条数据后,每秒就只能插10条了。。觉得很奇怪,为啥越插越慢呢?  于是就开始分析插
【matlab】运行 越算越慢
http://www.ilovematlab.cn/thread-207245-1-1.html 问题 我用matlab做了一个优化的程序,调用comsol来进行计算,但是运行时间较长,我用实验室的服务器进行计算,但是一晚过后matlab的计算速度渐渐变慢,最后竟然停止了运算,请问各位大侠,这是个怎么个问题啊? 方案 好长时间没有上论坛了,刚看见你的回复,去年参加了研讨
python程序越跑越慢
第一篇博客,记录我第一个python程序中遇到的问题
关于Tensorflow 训练时越来越慢,重启又好了
用的是Tensorflow 1.2版本,在CPU上跑,大概就是才开始训练的时候每个batch的时间很低,然后随着训练的推进,每个batch的耗时越来越长,但是当我重启后,又一切正常了,不知道这个是什么问题? tensorflow 运行时间越长速度越慢问题
Tensorflow训练渐渐变慢,迭代一段时间卡死
经常会遇见在训练过程中,运行越来越慢直至系统卡死,强制重启后重新训练又恢复。 知乎讨论:https://www.zhihu.com/question/58577743 Stackoverflow讨论: Stackoverflow 讨论 https://stackoverflow.com/questions/39070708/why-sometimes-tensorflow-runs-slow
tomcat加载启动越来越慢怎么解决?
可以修改类不用重启Tomcat加载整个项目(手工启动) 配置reloadable=true(自动重载) 使用Debug模式,前提是仅限于局部修改。(修改类不用重启–热加载) Tomcat轻小,而WebLogic、WebSphere对硬件要求比较高,吃内存、耗CUP。JBoss类更改不会重启(传说,我没用过,不知道!)。 在使用Eclipse+Tomcat开发Java项目的时候
关于tensorflow在训练或者测试时越来越慢,重启之后又恢复
问题描述: Tensorflow 训练时运行越来越慢,重启后又变好。用的是Tensorflow-GPU 1.2版本,在GPU上跑,大概就是才开始训练的时候每个batch的时间很低,然后随着训练的推进,每个batch的耗时越来越长,但是当我重启后,又一切正常了? 问题解决: 因为在运行时的session里定义了tf的op导致的。这样每一次迭代都会在graph里增加新的节点,导致memory l...
Python处理大数据越来越慢的问题
Python处理大数据越来越慢的问题          Python在对大数据进行处理时,发现随着数据处理量的增大,性能急剧下降。查找原因发现是由于GC(垃圾回收)造成的性能下降。          Python的垃圾回收机制的工作原理为每个对象维护一个引用计数,每次内存对象的创建与销毁都必须修改引用计数,从而在大量的对象创建时,需要大量的执行修改引用计数操作,对于程序执行过程中,