关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
一起看雪吗_
2023-07-18 14:03
采纳率: 100%
浏览 18
首页
开源
已结题
有人部署过清华大学的ChatGLM-6B模型吗 想知道它安装后使用收不收费
开源协议
gitee
gitcode
有人部署过那个清华大学的ChatGLM-6B模型吗 想知道它安装后使用收不收费
收起
写回答
好问题
0
提建议
关注问题
微信扫一扫
点击复制链接
分享
邀请回答
编辑
收藏
删除
收藏
举报
1
条回答
默认
最新
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
大师兄6668
新星创作者: python技术领域
2023-07-18 14:19
关注
不收费啊,那个是开源的模型。
本回答被题主选为最佳回答
, 对您是否有帮助呢?
本回答被专家选为最佳回答
, 对您是否有帮助呢?
本回答被题主和专家选为最佳回答
, 对您是否有帮助呢?
解决
无用
1
评论
打赏
微信扫一扫
点击复制链接
分享
举报
评论
按下Enter换行,Ctrl+Enter发表内容
查看更多回答(0条)
向“C知道”追问
报告相同问题?
提交
关注问题
手把手教你本地CPU环境
部署
清华大
模型
Chat
GLM
-
6B
,利用量化
模型
,本地即可开始智能聊天,达到
Chat
GPT的80%
2023-04-28 16:14
微学AI的博客
大家好,我是微学AI,今天教你们本地CPU环境
部署
清华大
Chat
GLM
-
6B
模型
,利用量化
模型
,每个人都能跑动大
模型
。
Chat
GLM
-
6B
是一款出色的中英双语对话
模型
,拥有超过62亿个参数,可高效地处理日常对话场景。与
GLM
-130B...
全网最新版
Chat
GLM
-
6B
开源
模型
环境详细
部署
及
安装
——如何在低显存单显卡上面
安装
私有
Chat
GPT GPT-4大语言
模型
2023-04-27 17:23
小胡说人工智能的博客
近期
清华大学
发布了对话机器人
Chat
GLM
-
6B
的
开源
版本,这个中英文语言
模型
拥有千亿参数规模,并且对中文进行了优化。本次
开源
的版本是其60亿参数的小规模版本,仅需要6GB显存就可以在本地
部署
。这意味着,即使是在...
清华大学
开源
Chat
GLM
2-
6B
开源
模型
在anaconda下的虚拟环境详细
部署
及
安装
教程
2023-07-05 17:13
best_mimo的博客
Chat
GLM
2-
6B
在anaconda中虚拟环境下的本地
部署
基于
Chat
GLM
-
6B
部署
本地私有化
Chat
GPT
2024-07-30 11:40
AI大模型_学习君的博客
基于
Chat
GLM
-
6B
部署
本地私有化
Chat
GPT操作系统:CentOS 7.6/Ubuntu (内存:32G)显卡配置:2x NVIDIA Gefore 3070Ti 8G (共16G显存)Python 3.8.13 (版本不要高于3.10,否则有些依赖无法下载,像paddlepaddle ...
(二)
Chat
GLM
-
6B
模型
部署
以及ptuning微调详细教程
2023-04-09 04:19
sawyes的博客
Chat
GLM
-
6B
模型
训练,ptuning微调,大语言
模型
,LLM
本地
部署
Chat
GLM
-
6B
2023-05-06 15:29
engchina的博客
本地
部署
Chat
GLM
-
6B
人工智能_大
模型
003_普通服务器CPU_
安装
清华
开源
人工智能AI大
模型
Chat
Glm
-
6B
_003---人工智能工作笔记0138
2024-02-19 23:59
添柴程序猿的博客
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/ 有网速 但是不成功。可以看到执行:pip install -r requirements.txt -i https://mirror.baidu.com/pypi/simple 可以正常执行。pip ...
Chat
GLM
-
6B
部署
到本地电脑
2024-09-17 21:58
彭祥.的博客
Chat
GLM
-
6B
是由
清华大学
开源
的双语对话大
模型
,该
模型
有62亿参数,但在经过量化后
模型
体积大幅下降,因此不同于其他需要
部署
到服务器上的大
模型
,该
模型
可以
部署
到本地电脑,那么接下来我们来看看如何
部署
该
模型
。...
Chat
GLM
-
6B
-
部署
与
使用
2024-09-23 14:09
白乐天_ξ( ✿>◡❛)的博客
一、简介
Chat
GLM
-
6B
是由
清华大学
知识工程实验室(KEG)与智谱 AI 联合打造的一个
开源
的、支持中英双语的对话语言
模型
。二、基本参数参数量:62 亿参数。三、技术架构与特点架构基础:基于 General Language Model...
Chat
GLM
-
6B
模型
2025-02-19 10:34
JaydenQ的博客
一款中文对话生成大语言
模型
,其核心特点是基于,并且具有6亿个参数(因此叫
6B
)。
没有解决我的问题,
去提问
向专家提问
向AI提问
付费问答(悬赏)服务下线公告
◇ 用户帮助中心
◇ 新手如何提问
◇ 奖惩公告
问题事件
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
系统已结题
7月26日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
已采纳回答
7月18日
关注
码龄
粉丝数
原力等级 --
被采纳
被点赞
采纳率
创建了问题
7月18日