loveloukun2
2014-01-28 10:29
浏览 1.7k
已采纳

postgre大数据量插入效率提高,请大牛现身

我往postgre数据库里插入100万条数据,数据以csv文件方式读入前端java、设置1000条提交一次。数据库表结构在store_code ,character varying(4)和goods_stk_no,character varying(30)建主键,并且这两个字段是索引,当数据为1001,100000000000000000000000000000时,执行时间为11至13分钟,当数据为GT01,GOODSN000000000000000000000001时,执行时间为3分钟,大大缩短,请问这是怎么回事呢?可以从什么方向上改进?

  • 写回答
  • 好问题 提建议
  • 追加酬金
  • 关注问题
  • 收藏
  • 邀请回答

3条回答 默认 最新

  • M44346460 2014-01-28 22:02
    已采纳

    如果你只是想着把数据导入的话,那我会建议你不要用sql导入,直接以文本的方式导入。速度至少是用SQL导入的10倍都不止!

    评论
    解决 无用
    打赏 举报
查看更多回答(2条)

相关推荐 更多相似问题