_自然醒 2017-07-05 08:53 采纳率: 0%
浏览 962

求解,这个内存如何释放

SimpleJdbcInsert insertActor = new SimpleJdbcInsert(jdbcTemplate).withTableName("DATA");
int r_count = dataList.size();
Map[] m_rows = (Map[]) new Map[r_count];
for (int i = 0; i < r_count; i++) {
m_rows[i] = dataList.get(i);
}
int[] idinfos = insertActor.executeBatch(m_rows);

 我使用ConcurrentHashMap作为参数传,用于数据的批量插入,使用SimpleJdbcInsert完成批量插入,但是随着插入数据量的增多,内存中的ConcurrentHashMap对象也在不断的增加,一直都没有销毁,这是怎么回事啊???

图片说明
图片说明

  • 写回答

2条回答 默认 最新

  • 丵鹰 2017-07-05 09:16
    关注

    执行完批量插入后m_rows=null;insertActor .close

    评论

报告相同问题?

悬赏问题

  • ¥30 vmware exsi重置后登不上
  • ¥15 易盾点选的cb参数怎么解啊
  • ¥15 MATLAB运行显示错误,如何解决?
  • ¥15 c++头文件不能识别CDialog
  • ¥15 Excel发现不可读取的内容
  • ¥15 关于#stm32#的问题:CANOpen的PDO同步传输问题
  • ¥20 yolov5自定义Prune报错,如何解决?
  • ¥15 电磁场的matlab仿真
  • ¥15 mars2d在vue3中的引入问题
  • ¥50 h5唤醒支付宝并跳转至向小荷包转账界面