目前师兄给了PPUZW8810,和CUDA部分不兼容,我想在云端做文本向量化,发现有两种办法:一是在本地下载.onnx,貌似上传需要模型部署在oss创建对象,而是调用阿里云自己的API,好像两种方法都要付费?想问问大家的经验建议?不胜感激🥹本人摸索了两天快崩溃了ಥ_ಥ
服务器驱动只支持cuda11,但系统cudakits是12,很多不兼容问题,我的计划是cpu切片,ppu推理
补充:目前是研0www不敢一直打扰学长学姐先自己在摸索中ಥ_ಥ
目前师兄给了PPUZW8810,和CUDA部分不兼容,我想在云端做文本向量化,发现有两种办法:一是在本地下载.onnx,貌似上传需要模型部署在oss创建对象,而是调用阿里云自己的API,好像两种方法都要付费?想问问大家的经验建议?不胜感激🥹本人摸索了两天快崩溃了ಥ_ಥ
服务器驱动只支持cuda11,但系统cudakits是12,很多不兼容问题,我的计划是cpu切片,ppu推理
补充:目前是研0www不敢一直打扰学长学姐先自己在摸索中ಥ_ಥ
阿里嘎多学长整理AIGC生成,因移动端显示问题导致当前答案未能完全显示,请使用PC端查看更加详细的解答过程
你遇到了使用阿里云服务器的问题,主要是关于模型部署和文本向量化的。下面是我的解答:
阿里云提供了多种方式来部署模型和实现文本向量化。根据你的描述,你可以选择以下两种方法:
在使用阿里云的API时,你需要使用Python来调用API,并将模型和数据传递给API。下面是一个简单的示例代码:
import requests
# 设置API的访问地址和参数
url = "https://api.aliyun.com/v1/text-vectorization"
params = {
"model_name": "your_model_name",
"text": "your_text"
}
# 发送请求
response = requests.post(url, json=params)
# 处理响应结果
result = response.json()
print(result)
在上面的代码中,我们使用了requests库来发送POST请求到阿里云的API,并将模型名称和文本传递给API。然后,我们使用json()方法来处理响应结果。
总的来说,阿里云提供了多种方式来实现文本向量化和模型部署。你可以根据自己的需求选择合适的方法。