准备复现一篇论文,论文中提到要提取100102410的矩阵,我在colab里试了下,配合上数据集的长度,内存轻而易举的挂掉了。想请问一下大家都是用什么方式去构建这种大矩阵的
2条回答 默认 最新
- 爱晚乏客游 2023-11-09 09:45关注
你是用什么构建的?直接用list的话肯定是不行的。
而且如你所说,这种提取一般是在神经网络中的相关处理,一般用的是神经网络的框架带的tensor矩阵的,或者你可以用numpy来创建大型的矩阵。最后,数据集长度是多少?一般神经网络是有个batch的概念的,并不是将所有的数据集全部加载进去的,而是一次加载一个batch的数据来处理的,或者为了速度,一次性多加载几个batch的数据进内存,不是将所有数据全部加载的,如果是这样那像GPT这种超大数据集的,openAI也顶不住内存啊。本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 1无用
悬赏问题
- ¥20 数学建模来解决我这个问题
- ¥15 计算机网络ip分片偏移量计算头部是-20还是-40呀
- ¥15 stc15f2k60s2单片机关于流水灯,时钟,定时器,矩阵键盘等方面的综合问题
- ¥15 YOLOv8已有一个初步的检测模型,想利用这个模型对新的图片进行自动标注,生成labellmg可以识别的数据,再手动修改。如何操作?
- ¥30 NIRfast软件使用指导
- ¥20 matlab仿真问题,求功率谱密度
- ¥15 求micropython modbus-RTU 从机的代码或库?
- ¥15 django5安装失败
- ¥15 Java与Hbase相关问题
- ¥15 后缀 crn 游戏文件提取资源