关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
验证集的accuracy和loss波动幅度特别大,这是怎么回事呢?
收起
- 写回答
- 好问题 0 提建议
- 关注问题
微信扫一扫点击复制链接分享
- 邀请回答
- 编辑 收藏 删除 结题
- 收藏 举报
9条回答
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
蹦蹦哒哒楠 2020-08-30 21:22关注你好,请问你最终这个问题是怎么解决的呢,我也做的是三分类,同样出现了这种情况,训练集和测试集都各自打乱了
本回答被题主选为最佳回答 , 对您是否有帮助呢? 本回答被专家选为最佳回答 , 对您是否有帮助呢? 本回答被题主和专家选为最佳回答 , 对您是否有帮助呢?评论 打赏解决 1无用举报
微信扫一扫点击复制链接分享
评论按下Enter换行,Ctrl+Enter发表内容
报告相同问题?
提交
- 2024-09-01 20:07小小星125的博客 在小样本情况下,训练集和验证集的损失(loss)及准确率(accuracy)曲线可能会表现得较为波动,因为样本数量较少,模型的训练过程可能会受限于数据的偶然性和噪声。
- 2023-07-19 00:44AI天才研究院的博客 作者:禅与计算机程序设计艺术 物流、配送、仓储等是人类社会中最重要和普遍的需求之一。目前,无论是在快递、物流...如何设计一个高效、智能、用户体验良好且节省成本的物流和配送系统,成为当下物流行业中的重大课
- 2020-11-24 07:11weixin_39955700的博客 训练集、验证集和测试集,林林总总的数据集合类型,到底该怎么选、怎么用?看过这篇教程后,你就能游刃有余地处理它们了。问题审稿的时候,不止一次,我遇到作者错误使用数据集合跑模型准确率,并和他人成果比较的...
- 2025-04-22 16:14水煮蛋不加蛋的博客 大模型评估已从单一任务正确率走向多维度立体化评测体系。企业需根据自身场景构建定制化评估...随着大模型向通用人工智能迈进,评估指标将进一步融合认知科学、伦理学等跨学科方法,推动技术发展与社会价值的良性互动。
- 2025-06-08 10:19文弱_书生的博客 训练中的Loss图像和Acc图像怎么看?怎么分析?学习率该怎么选择和调整?
- 2025-07-07 00:20AIGC应用创新大全的博客 AI核心算法大揭秘:从基础原理到前沿演化的全栈解析 元数据框架 标题:AI核心算法大揭秘:从基础原理到前沿演化的全栈解析 关键词:机器学习(监督/无监督/强化)、深度学习(CNN/RNN/Transformer)、优化算法(梯度...
- 2024-09-19 21:06AI完全体的博客 本项目使用QLoRA技术(即结合了量化 和 LoRA 技术),旨在在资源有限的情况下对预训练大模型进行高效微调,如移动设备或嵌入式设备,并将微调后的模型用在了一个文本分类任务的推理上。包含了完整的训练和推理过程。
- 2025-05-26 20:34AIGC应用创新大全的博客 你是否遇到过这样的困惑:明明按照教程写了训练代码,模型却总是"学不会"?...本文将聚焦AI学习中的可量化指标和可操作技巧,覆盖数据、模型、训练策略三大核心环节,帮你从"凭感觉调参"升级为"用数据说话"。
- 2024-04-04 11:18AI天才研究院的博客 随着工业4.0时代的到来,智能制造成为全球...本文对智能制造中的工业大数据分析实践进行了深入探讨,介绍了工业大数据分析的基本概念、关键技术、应用场景、算法原理、数学模型、项目实践、实际应用和未来发展趋势。
- 2025-04-15 16:51强化学习曾小健的博客 首先,pretrain和sft虽然都用的crossentropy loss,但是呢,由于01 label的存在,实际上,损失函数可以写为,,num_generation设置的都是6,而KL惩罚项的beta设置成了0.04,这个0.04是。,但这里故意设置这么高,我们...
- 2025-02-20 14:37AI天才研究院的博客 市场错误定价指的是商品或服务的定价与其真实价值不符的情况。这种错误可能是由于信息不对称、市场波动、参与者行为偏差等多种因素造成...AI智能体识别市场错误定价的系统设计需要考虑市场环境的复杂性和数据的实时性。
- 2024-10-26 10:24AI小白熊的博客 在这个信息爆炸的时代,人工智能技术正以前所未有的速度渗透到我们生活的方方面面。从智能手机上的语音助手到自动驾驶汽车,AI的应用无处不在。而在这些令人惊叹的技术背后,大语言模型(LLM)扮演着至关重要的角色...
- 2024-08-06 08:45和老莫一起学AI的博客 在这个信息爆炸的时代,人工智能技术正以前所未有的速度渗透到我们生活的方方面面。从智能手机上的语音助手到自动驾驶汽车,AI的应用无处不在。而在这些令人惊叹的技术背后,大语言模型(LLM)扮演着至关重要的角色...
- 2025-04-28 22:34whaosoft-143的博客 如图 11 所示,在 8 个数据集上,DIFF Transformer 相较 Transformer 均有不同程度的提升,平均准确率提升了 7.5%,这表明差分注意力机制更强大的上下文建模能力在推理任务中也至关重要。这一机制输出的是连续、细...
- 2023-03-08 15:58Yuezero_的博客 AI in Finance量化交易&人工智能&金融投资>(下)
- 2024-11-06 16:56whaosoft-143的博客 最近几年受益于巨大的参数规模和海量的训练语料,基于Transformer的大型语言模型(LLMs),如ChatGPT和LLaMA系列,在特定领域知识的生成和复杂推理任务中都表现出色的性能。此外,LLMs的能力随着参数规模的扩大而...
- 2025-05-24 13:53whaosoft-143的博客 上海 AI Lab 进一步提出通过相互依赖的基础模型层、 融合协同层和探索进化层 “三层” 技术路径, 可打造 “通用泛化性”“高度专业性”“任务可持续性” 三者兼得的通用人工智能。 通专融合 AGI 实现路径 第一层为...
- 2024-12-13 00:15whaosoft-143的博客 这就像是在 AI 的「大脑」中划分了专门的「思维区域」。本文给出了一个十分有趣的发现:强大的 Mamba 模型与通常被认为性能不佳的线性注意力有着内在的相似性:本文用统一的公式表述了 Mamba 中的核心模块状态空间...
- 没有解决我的问题, 去提问

