女士品茶 2025-06-30 03:02 采纳率: 0%
浏览 13

进组不会用阿里云服务器

目前师兄给了PPUZW8810,和CUDA部分不兼容,我想在云端做文本向量化,发现有两种办法:一是在本地下载.onnx,貌似上传需要模型部署在oss创建对象,而是调用阿里云自己的API,好像两种方法都要付费?想问问大家的经验建议?不胜感激🥹本人摸索了两天快崩溃了ಥ_ಥ

服务器驱动只支持cuda11,但系统cudakits是12,很多不兼容问题,我的计划是cpu切片,ppu推理

补充:目前是研0www不敢一直打扰学长学姐先自己在摸索中ಥ_ಥ

  • 写回答

6条回答 默认 最新

  • 阿里嘎多学长 2025-06-30 03:02
    关注

    阿里嘎多学长整理AIGC生成,因移动端显示问题导致当前答案未能完全显示,请使用PC端查看更加详细的解答过程

    进组不会用阿里云服务器

    你遇到了使用阿里云服务器的问题,主要是关于模型部署和文本向量化的。下面是我的解答:

    阿里云提供了多种方式来部署模型和实现文本向量化。根据你的描述,你可以选择以下两种方法:

    1. 使用阿里云的模型部署服务:你可以将模型上传到阿里云的对象存储服务(OSS)中,然后使用阿里云的模型部署服务来部署模型。这样可以实现模型的在线服务和文本向量化。
    2. 使用阿里云的API来实现文本向量化:阿里云提供了多种API来实现文本向量化,例如文本向量化API、文本分类API等。你可以使用这些API来实现文本向量化,而不需要部署模型。

    在使用阿里云的API时,你需要使用Python来调用API,并将模型和数据传递给API。下面是一个简单的示例代码:

    import requests
    
    # 设置API的访问地址和参数
    url = "https://api.aliyun.com/v1/text-vectorization"
    params = {
        "model_name": "your_model_name",
        "text": "your_text"
    }
    
    # 发送请求
    response = requests.post(url, json=params)
    
    # 处理响应结果
    result = response.json()
    print(result)
    

    在上面的代码中,我们使用了requests库来发送POST请求到阿里云的API,并将模型名称和文本传递给API。然后,我们使用json()方法来处理响应结果。

    总的来说,阿里云提供了多种方式来实现文本向量化和模型部署。你可以根据自己的需求选择合适的方法。

    评论

报告相同问题?

问题事件

  • 创建了问题 6月30日