loveloukun2
2014-01-28 10:29
浏览 1.6k
已采纳

postgre大数据量插入效率提高,请大牛现身

我往postgre数据库里插入100万条数据,数据以csv文件方式读入前端java、设置1000条提交一次。数据库表结构在store_code ,character varying(4)和goods_stk_no,character varying(30)建主键,并且这两个字段是索引,当数据为1001,100000000000000000000000000000时,执行时间为11至13分钟,当数据为GT01,GOODSN000000000000000000000001时,执行时间为3分钟,大大缩短,请问这是怎么回事呢?可以从什么方向上改进?

  • 写回答
  • 关注问题
  • 收藏
  • 邀请回答

3条回答 默认 最新

  • M44346460 2014-01-28 22:02
    已采纳

    如果你只是想着把数据导入的话,那我会建议你不要用sql导入,直接以文本的方式导入。速度至少是用SQL导入的10倍都不止!

    打赏 评论
  • luoshulin 2014-01-29 16:45

    可能系统的类型转换导致的性能下降

    打赏 评论
  • joaboo 2014-01-30 14:38

    或许LZ可以把导入的代码放出来看看..而且像这种大批量数据导入的话,通常的做法是先把索引去掉,导入完毕后再加上索引..

    打赏 评论

相关推荐 更多相似问题