最新最热精华悬赏待回答 筛选
  • 1

本地部署llama3 8B需要电脑多大配置,我这个电脑(如图)能部署多大参数的llama3呀?谢谢

  • llama
  • 6
  • 2024-10-28 17:15
五只大鸭梨
采纳率85.7%
  • 1

    回答

问题遇到的现象和发生背景 1.llama3-8b-Chinese使用带含量的国标文件生成的数据集微调之后,对数字类的问答数据集学习能力不高;2.加载检查点之后,询问答案中带数字的问题,正确率只有33%

  • 1

windows安装llama-factory,报错CUDA environment was not detected.;但是采用nvcc -v检测,有信息 这个是什么问题呀?

路过的夏季
采纳率80%
  • 13

    回答

llama-factory训练完的模型怎么给ollama使用?包括导出和格式转化,安装使用?有知道的嘛,麻烦给一个详细的教程

  • ¥20
  • llama
  • 88
  • 2024-09-19 10:55
路过的夏季
采纳率80%
  • 27

    回答

为什么llama3中文版使用LLaMA-Factory微调之后,选择检查点加载模型,返回的token很短,而且增加提示词和max_token参数调整都不起作用?

M,I,S,S
采纳率0%
  • 13

    回答

首次使用ollama时llama3.1:8b十分流畅,但是重启后llama3.1响应速度极慢十分钟才输出了一个hello

Sweetptato
采纳率0%
  • 1

    回答

安装完Docker,无法打开,通过命令安装Open WebUI报错这是什么原因啊,Hyper-V我也打开了,不过是在安装后打开的 docker run -d -p 3000:8080 --add-ho

ZZZ_er
采纳率0%
  • 1

    回答

#最近买了一张NVIDIA的K80计算卡驱动的CUDA版本最高支持11.4,很多模型都跑不了想请教一下有没有能跑的请具体说明一下模型的名称,最好实测过,谢谢

  • 2

    回答

请问下,我想部署一个个人的模型,我自己已经训练好了,基于llama3+peft,我想找一个在线的平台部署我的私有模型,提供REST API的服务,请问有这样的平台吗,多谢!

  • 16

我正在修改 llama.cpp/examples/server/public 目录下的 index.html 文件,以添加一个用户登录窗口。这个登录窗口将提示用户输入用户名和密码以访问服务器。我希望将

Sean_Zhang__
采纳率100%
  • 4

    回答

运行llama2 70B 需要哪些硬件配置?内存需要多大,CPU和GPU的要求分别是什么?

  • llama
  • 191
  • 2024-05-12 14:42
回答 ginnfan
采纳率25%
  • 3

    回答

如何在本地使用llama2 70B,可以直接用吗,还是必须要部署?

  • llama
  • 3
  • 2024-05-12 14:36
回答 ginnfan
采纳率25%
  • 5

    回答

我写了一个用hf接口进行llama2和llama3模型推理测速的脚本,测试出来结果llama2-7b比llama3-8b要更快,请问大家是怎么样测试的呢?测试结果有没有什么不一样?脚本代码如下,代码是

  • 3

    回答

问题遇到的现象和发生背景 通过text-generation-webui部署Llama2-Chinese-7b-Chat模型时报错,不知道原因,并想知道机型是否支持运行模型: 23:15:09-83

  • 3

    回答

我的系统是cenos7 正在部署llama2,下载完权重执行下面俩个命令的时候出了 warnings.warn("Attempted to get default timeout for nccl b

  • llama
  • 26
  • 2024-03-13 16:37
  • 1

    回答

现在各种大模型后训练量化方法,权重长得都不一样,有的是scale,有的是ab,有的是scale和zero,每种量化方法具体推理的时候都需要单独实现算子来加速吗?

  • 15

    回答

今天用算力平台部署llama-2-7b的时候,在确认安装环境及使用平台预安装的模型的情况下,运行如下代码使用文本补全功能: ~/data/llama$ torchrun --nproc_per_nod

清和廿六.
采纳率0%
  • 2

    回答

按照这个简单 当容器 60 60 60 磁滞回线矫顽力是400多 容器 20 20 20 矫顽力900多 容器 400 400 20矫顽力200 在增

  • llama
  • 53
  • 2023-12-06 09:27
  • 2

    回答

在使用LLama_recipes对模型进行微调时,代码出现这个报错查阅资料后说是循环引用的问题,在加入一些懒加载,改名方法后也没解决。github上也有人遇到类似问题但没有解决方案 这是llama_r

  • ¥15
  • llama
  • 11
  • 2023-11-08 15:15
weixin_44222515
采纳率0%
  • 2

    回答

#LLM #GPT最近公司一直在让研究怎么能做到GPT本地化部署,用来上传学习业务流程,分析数据报表。不知道各位触们有没有实际使用过的分享一下感想,现在的GPT3.5和LLAMA等一些大模型是否能够实