关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
最长的暑假
2022-09-14 22:58
采纳率: 50%
浏览 8
首页
人工智能
训练模型时报错关于dataset
人工智能
目标检测
计算机视觉
本人在训练GCPA时遇到以下错误
并且我想在其他数据集上进行训练,我该如何修改代码
收起
写回答
好问题
0
提建议
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
编辑
收藏
删除
结题
收藏
举报
1
条回答
默认
最新
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
爱晚乏客游
2022-09-15 09:38
关注
需要你添加数据集路径,你没加路径不行,或者在parser模块中的--data中加上default=“数据集默认路径”
本回答被题主选为最佳回答
, 对您是否有帮助呢?
本回答被专家选为最佳回答
, 对您是否有帮助呢?
本回答被题主和专家选为最佳回答
, 对您是否有帮助呢?
解决
无用
评论
打赏
微信扫一扫
点击复制链接
分享
举报
评论
按下Enter换行,Ctrl+Enter发表内容
查看更多回答(0条)
向“C知道”追问
报告相同问题?
提交
关注问题
用MindSpore
训练模型
时
报错
:TypeError: For ‘MatMul‘, the input data must be...
2025-11-06 16:57
小乐快乐的博客
在用MindSpore训练一个简单的全连接网络
时
遇到
报错
:问题:1. 为什么会出现这个类型错误?2. 应该如何正确设置Tensor的数据类型?
MiniMind用极低的成本训练属于自己的大模型
2025-03-05 21:15
任聪聪的博客
在2小
时
,训练出属于自己的28M大模型。特性说明:1、在家用电脑中即可进行大模型的训练。2、训练
时
间可在一天之内,让你获得低成本训练出的大模型。3、适用于性能不高的电脑本地运行及训练迭代。
【课程总结】day24(上):大模型三阶段训练方法(LLaMa Factory)
2024-08-15 19:22
洞明智能的博客
本章我们将通过 LLaMA-Factory 具体实践大模型训练的三个阶段,包括:预训练、监督微调和偏好纠正。
PyTorch多GPU训练与模型保存实用指南
2025-12-26 14:11
Kay Lam的博客
掌握PyTorch中GPU使用技巧,包括实
时
监控显存、单卡与多卡加速训练方法,详解DataParallel原理及注意事项,并提供多GPU模型保存与CPU加载的正确方式,避免常见陷阱。
大模型分布式训练框架 Megatron-LM
2026-01-10 05:16
范桂飓的博客
数据预处理:Megatron-LM 提供了 preprocess_data.py 预处理脚本,将原始文本数据转换为 Megatron-LM 所需的 token 化二进制格式,...注意,多机训练的
时
候,启动容器
时
不能指定 --net host,会导致 NCCL 通信
时
报错
。
内存不足:解决大模型训练
时
的CUDA Out of Memory错误
2024-08-08 08:00
默语佬的博客
大家好,我是默语,擅长全栈开发、运维和
人工智能
技术。今天我将和大家分享在大模型训练
时
如何解决CUDA Out of Memory错误的解决方案。这个问题在深度学习领域非常常见,尤其是在处理大型数据集和复杂模型
时
。希望这...
mindspore训练retinanet
时
报错
无法计算loss,停止训练
2022-06-28 16:51
小乐快乐的博客
问题描述:在使用官方脚本训练retinanet
时
训练几轮后,
报错
无法计算loss,停止训练我的数据集为coco格式,修改了配置文件种类等,制作mindrecord格式的文件后进行训练
报错
,请问可能是什么原因呢,数据集按照流程...
基于LLaMA-Factory的大模型Agent训练与部署入门
2025-01-14 01:18
Heisenberg_go的博客
本文记录于2025/12/20,由于 LLaMA-Factory 版本的大更新,导致之前的很多相关...选择大模型Agent这个课题是因为它具有一定难度,但又基本包含了普通对话模型的训练流程。开始之前首先感谢相关开发者和前人的经验分享。
大模型训练飞起来!Unsloth微调Qwen3实战教程(神器)
2025-08-13 11:39
程序员辣条的博客
作者提供了完整的微调流程,包括环境配置、数据准备、训练代码和模型测试,特别强调了数据质量的重要性。通过实验数据展示,Unsloth微调Qwen3-7B仅需48分钟,显存占用8GB,效果优于传统方法。文章还分享了智能客服、...
大模型三阶段训练方法(LLaMa Factory):预训练、监督微调和偏好纠正
2025-05-27 15:34
AI小白熊的博客
本章我们将通过 LLaMA-Factory 具体实践大模型训练的三个阶段,包括:预训练、监督微调和偏好纠正。
没有解决我的问题,
去提问
向专家提问
向AI提问
付费问答(悬赏)服务下线公告
◇ 用户帮助中心
◇ 新手如何提问
◇ 奖惩公告
问题事件
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
创建了问题
9月14日