参考链接:
https://pytorch.org/tutorials/beginner/basics/saveloadrun_tutorial.html
https://zhuanlan.zhihu.com/p/82038049
但是我发现这几种方法保存模型之后占用空间都很大。有什么方法能保存模型参数或者完整模型但是占用的磁盘空间小吗?
参考链接:
https://pytorch.org/tutorials/beginner/basics/saveloadrun_tutorial.html
https://zhuanlan.zhihu.com/p/82038049
但是我发现这几种方法保存模型之后占用空间都很大。有什么方法能保存模型参数或者完整模型但是占用的磁盘空间小吗?
保存成静态模型和参数就会比较小,也就是你的链接里面的torch.save(model.state_dict(), 'model_weights.pth')
如果你是直接保存的话,里面除了模型之外,还会有一些优化器之类的参数,所以会比较大。
如果保存成模型加参数的方法还大的话,那就是你的网络比较大,而如果你非要小网络的话,就只能考虑网络剪枝了,这个可以看看一些简单的教程说明
根据yolov5的作者说网络剪枝也就是模型变小了,计算速度并没有提升