二十二394 2025-04-25 10:46 采纳率: 0%
浏览 46

关于#transformer#的问题:本地KTransformer部署了DeepSeek R1,怎么用Dify的自定义模型供应链连接呢

本地KTransformer部署了DeepSeek R1,怎么用Dify的自定义模型供应链连接呢?
看Transformers介绍说又openai的api,可以直接接入吗?
还是需要中间件转发一下?

  • 写回答

5条回答 默认 最新

  • 阿里嘎多学长 2025-04-25 10:46
    关注

    阿里嘎多学长整理AIGC生成,因移动端显示问题导致当前答案未能完全显示,请使用PC端查看更加详细的解答过程

    解答

    你已经部署了DeepSeek R1在本地KTransformer上,并且想使用Dify的自定义模型供应链连接。Dify是一个模型供应链平台,可以帮助你部署和管理模型。

    根据Transformers的文档,openai的API可以直接接入,但是需要使用openai的API密钥和token来身份验证。

    如果你想使用Dify的自定义模型供应链连接,可以尝试以下步骤:

    1. 在Dify平台上创建一个新的模型供应链,选择"自定义模型"选项。
    2. 在模型供应链中添加你的模型,选择"KTransformer"作为模型类型。
    3. 在模型供应链中配置模型的输入和输出参数,例如模型的输入shape和输出shape。
    4. 在模型供应链中添加一个"API"步骤,选择"openai"作为API类型,并输入你的openai API密钥和token。
    5. 在模型供应链中配置API的请求参数,例如请求的模型名称和版本。

    这样,你就可以使用Dify的自定义模型供应链连接你的KTransformer模型,并使用openai的API来部署和管理模型。

    需要注意的是,需要确保你的openai API密钥和token是正确的,并且需要遵守openai的使用条款和隐私政策。

    评论

报告相同问题?

问题事件

  • 创建了问题 4月25日