关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
谷咕咕
2025-09-22 13:53
采纳率: 36.4%
浏览 10
首页
人工智能
已结题
使用LLaMA-Factory微调的时候,提示这个是为什么, 是内存不足嘛,我8g的电脑默认只使用1.06g?
人工智能
使用LLaMA-Factory微调的时候,提示这个是为什么, 是内存不足嘛,我8g的电脑默认只使用1.06g?
收起
写回答
好问题
0
提建议
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
编辑
收藏
删除
收藏
举报
4
条回答
默认
最新
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
谷咕咕
全国人工智能系统部署与应用二等奖
2025-09-23 11:54
关注
已解决
本回答被题主选为最佳回答
, 对您是否有帮助呢?
本回答被专家选为最佳回答
, 对您是否有帮助呢?
本回答被题主和专家选为最佳回答
, 对您是否有帮助呢?
解决
无用
评论
打赏
微信扫一扫
点击复制链接
分享
举报
评论
按下Enter换行,Ctrl+Enter发表内容
查看更多回答(3条)
向“C知道”追问
报告相同问题?
提交
关注问题
新手教程之
使用
LLaMa
-
Factory
微调
LLaMa
3
2024-06-04 23:01
疯狂的小强呀的博客
如果你尝试过
微调
大模型,你就会知道,大模型的环境...但是大模型
微调
的方法又是非常类似的,那有没有一种工具可以统一这些操作,让大模型
微调
变成一个简单易上手的事情,
LLaMa
-
Factory
就是为了解决这个问题应运而生
LLM -
使用
LLaMA
-
Factory
微调
Qwen2-VL SFT(LoRA) 图像数据集 教程 (2)
2024-11-12 23:04
ManonLegrand的博客
LLaMA
-
Factory
是开源的大模型
微调
框架,用于高效地
微调
和部署大语言模型,支持多种预训练模型和
微调
算法,提供完整的工具和接口,对于预训练的模型进行定制化的训练和调整,以适应特定的应用场景。
使用
LLaMA
-
Factory
微调
模型详细步骤
2025-04-27 22:45
hello,zonghan的博客
微调
模型需要的环境有两个包:transformers,
llama
-
factory
。
使用
LLaMA
-
Factory
微调
时的问题与解决方案记录
2024-11-21 09:03
羊城迷鹿的博客
启动网页时
使用
这种执行命令。启动网页时
使用
这种执行命令。训练时碰到了这种错误。
9、
LLaMA
-
Factory
项目
微调
介绍
2024-08-28 16:26
Andy_shenzl的博客
LLaMA
Factory
是一个在GitHub上开源的项目,该项目给自身的定位是:提供一个易于
使用
的大语言模型(LLM)
微调
框架,支持
LLaMA
、Baichuan、Qwen、ChatGLM等架构的大模型。更细致的看,该项目提供了从预训练、指令
微调
...
大模型
微调
|
使用
LLaMA
-
Factory
微调
Llama
3-8B-Chinese-Chat 完成知识问答任务
2025-03-12 23:16
_Meilinger_的博客
本篇博客记录如何
使用
LLaMA
-
Factory
微调
Llama
3-8B-Chinese-Chat 完成知识问答任务,并介绍相应报错的解决方法。
LLaMA
-
Factory
快速入门(一):Mac 下大模型
微调
与部署全流程
2025-08-05 08:09
杨林伟的博客
手把手教你在Mac本地
使用
LLaMA
-
Factory
进行大模型
微调
,支持LoRA与QLoRA。适合初学者,快速上手本地训练大语言模型。
使用
LLaMA
-
Factory
微调
Qwen2.5-VL-3B 的目标检测任务-
使用
LLaMA
-
Factory
webui进行训练
2025-07-09 14:36
闲云野鹤01的博客
本文介绍了
使用
LLaMA
-
Factory
WebUI进行模型
微调
的具体操作流程。首先在根目录运行webui.py启动服务,通过浏览器访问交互界面。主要步骤包括:选择Qwen2.5-VL-3B基础模型、设置SFT
微调
模式、上传自定义数据集(如...
大模型
微调
指南之
LLaMA
-
Factory
篇:一键启动
LLaMA
系列模型高效
微调
2025-05-10 22:14
CodeSilence的博客
LLaMA
-
Factory
是一个功能强大的工具,支持模型的训练、
微调
、评估、推理和导出。它提供了全参数
微调
、LoRA
微调
、QLoRA
微调
等多种
微调
方法,并支持通过可视化界面或命令行进行操作。安装过程包括创建虚拟环境、...
LLM -
使用
LLaMA
-
Factory
微调
Qwen2-VL DPO(LoRA) 图像数据集 教程 (3)
2024-11-26 21:50
ManonLegrand的博客
DPO(Direct Preference Optimization, 直接偏好优化) 是在 RLHF 阶段中
使用
的优化算法,通过直接利用人类的偏好数据来优化策略模型,无需定义明确的奖励函数或进行复杂的强化学习过程。DPO的优化目标是,增加偏好...
没有解决我的问题,
去提问
向专家提问
向AI提问
付费问答(悬赏)服务下线公告
◇ 用户帮助中心
◇ 新手如何提问
◇ 奖惩公告
问题事件
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
系统已结题
10月1日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
已采纳回答
9月23日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
创建了问题
9月22日