loveloukun2 2014-01-28 10:29
浏览 1694
已采纳

postgre大数据量插入效率提高,请大牛现身

我往postgre数据库里插入100万条数据,数据以csv文件方式读入前端java、设置1000条提交一次。数据库表结构在store_code ,character varying(4)和goods_stk_no,character varying(30)建主键,并且这两个字段是索引,当数据为1001,100000000000000000000000000000时,执行时间为11至13分钟,当数据为GT01,GOODSN000000000000000000000001时,执行时间为3分钟,大大缩短,请问这是怎么回事呢?可以从什么方向上改进?

  • 写回答

3条回答 默认 最新

  • M44346460 2014-01-28 22:02
    关注

    如果你只是想着把数据导入的话,那我会建议你不要用sql导入,直接以文本的方式导入。速度至少是用SQL导入的10倍都不止!

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(2条)

报告相同问题?

悬赏问题

  • ¥15 关于#c##的问题:最近需要用CAT工具Trados进行一些开发
  • ¥15 南大pa1 小游戏没有界面,并且报了如下错误,尝试过换显卡驱动,但是好像不行
  • ¥15 没有证书,nginx怎么反向代理到只能接受https的公网网站
  • ¥50 成都蓉城足球俱乐部小程序抢票
  • ¥15 yolov7训练自己的数据集
  • ¥15 esp8266与51单片机连接问题(标签-单片机|关键词-串口)(相关搜索:51单片机|单片机|测试代码)
  • ¥15 电力市场出清matlab yalmip kkt 双层优化问题
  • ¥30 ros小车路径规划实现不了,如何解决?(操作系统-ubuntu)
  • ¥20 matlab yalmip kkt 双层优化问题
  • ¥15 如何在3D高斯飞溅的渲染的场景中获得一个可控的旋转物体