Mapper层查询List返回五百万行的大量数据,一般也使用guava的工具包分批次处理吗?这个list太大了,虽然处理可以分批次,但看起来它本身就挺大会占用太多资源,有其他较好处理方式嘛?
//import com.google.common.collect.Lists;
@Autowired
private Mapper mapper;
//查询清单
List<Map> list = mapper.qryXxxList();
List<List<Map>> newList = Lists.partition(rules , 100000);
list.stream().map(item -> {
//TODO 逻辑处理
return item;}).collect(Collectors.toList());
笔者追加:我想还是要对sql管控,mod之类的让它一次别查出太多,通过代码应该没啥作用,因为查出来给到list时已经占用太多了。