- 1
本地部署llama3 8B需要电脑多大配置,我这个电脑(如图)能部署多大参数的llama3呀?谢谢
- 1
回答
问题遇到的现象和发生背景 1.llama3-8b-Chinese使用带含量的国标文件生成的数据集微调之后,对数字类的问答数据集学习能力不高;2.加载检查点之后,询问答案中带数字的问题,正确率只有33%
- 1
windows安装llama-factory,报错CUDA environment was not detected.;但是采用nvcc -v检测,有信息 这个是什么问题呀?
- 13
回答
llama-factory训练完的模型怎么给ollama使用?包括导出和格式转化,安装使用?有知道的嘛,麻烦给一个详细的教程
- 27
回答
为什么llama3中文版使用LLaMA-Factory微调之后,选择检查点加载模型,返回的token很短,而且增加提示词和max_token参数调整都不起作用?
- 13
回答
首次使用ollama时llama3.1:8b十分流畅,但是重启后llama3.1响应速度极慢十分钟才输出了一个hello
- 1
回答
安装完Docker,无法打开,通过命令安装Open WebUI报错这是什么原因啊,Hyper-V我也打开了,不过是在安装后打开的 docker run -d -p 3000:8080 --add-ho
- 1
回答
#最近买了一张NVIDIA的K80计算卡驱动的CUDA版本最高支持11.4,很多模型都跑不了想请教一下有没有能跑的请具体说明一下模型的名称,最好实测过,谢谢
- 2
回答
- 16
我正在修改 llama.cpp/examples/server/public 目录下的 index.html 文件,以添加一个用户登录窗口。这个登录窗口将提示用户输入用户名和密码以访问服务器。我希望将
- 4
回答
运行llama2 70B 需要哪些硬件配置?内存需要多大,CPU和GPU的要求分别是什么?
- 3
回答
- 5
回答
- 3
回答
- 3
回答
我的系统是cenos7 正在部署llama2,下载完权重执行下面俩个命令的时候出了 warnings.warn("Attempted to get default timeout for nccl b
- llama
- 26
- 2024-03-13 16:37
- 1
回答
- 15
回答
今天用算力平台部署llama-2-7b的时候,在确认安装环境及使用平台预安装的模型的情况下,运行如下代码使用文本补全功能: ~/data/llama$ torchrun --nproc_per_nod
- 2
回答
按照这个简单 当容器 60 60 60 磁滞回线矫顽力是400多 容器 20 20 20 矫顽力900多 容器 400 400 20矫顽力200 在增
- 2
回答
在使用LLama_recipes对模型进行微调时,代码出现这个报错查阅资料后说是循环引用的问题,在加入一些懒加载,改名方法后也没解决。github上也有人遇到类似问题但没有解决方案 这是llama_r
- ¥15
- llama
- 11
- 2023-11-08 15:15
- 2
回答
#LLM #GPT最近公司一直在让研究怎么能做到GPT本地化部署,用来上传学习业务流程,分析数据报表。不知道各位触们有没有实际使用过的分享一下感想,现在的GPT3.5和LLAMA等一些大模型是否能够实