JayLouis93 2025-03-11 19:44 采纳率: 33.3%
浏览 23
已结题

求nomic-embed-vision-v1.5.gguf

【悬赏令】技术盲,求nomic-embed-vision-v1.5.gguf
现有safetensors格式模型,网站如下
https://hf-mirror.com/tomaarsen/nomic-embed-vision-v1.5-st/tree/main

  • 写回答

5条回答 默认 最新

  • 宝码香车 优质创作者: JavaScript技术领域 2025-03-11 20:08
    关注
    让【宝码香车】来帮你解答,本回答参考DeepSeek编写,并整理提供,如果还有疑问可以点击头像关注私信或评论。
    如果答案让您满意,请采纳、关注,非常感谢!

    要将 safetensors 格式的模型转换为 gguf 格式,你可以使用 llama.cpp 项目中的工具。ggufllama.cpp 项目引入的一种新的模型格式,专门用于高效加载和推理大型语言模型。

    以下是转换步骤的详细说明:

    1. 安装依赖

    首先,你需要安装 llama.cpp 项目及其依赖项。你可以通过以下步骤来完成:

    # 克隆 llama.cpp 仓库
    git clone https://github.com/ggerganov/llama.cpp
    cd llama.cpp
    
    # 编译项目
    make
    

    2. 下载模型

    你需要从 Hugging Face 下载 safetensors 格式的模型。你可以使用 git 或者 huggingface-cli 来下载模型。

    # 使用 git 下载模型
    git lfs install
    git clone https://hf-mirror.com/nomic-ai/nomic-embed-vision-v1.5
    

    3. 转换模型

    llama.cpp 提供了一个工具 convert.py,可以将 safetensors 格式的模型转换为 gguf 格式。

    # 进入 llama.cpp 目录
    cd llama.cpp
    
    # 使用 convert.py 脚本转换模型
    python3 convert.py --input /path/to/nomic-embed-vision-v1.5 --output /path/to/output.gguf
    

    4. 验证转换

    转换完成后,你可以使用 llama.cpp 中的 main 程序来验证转换后的 gguf 文件是否可以正常加载和推理。

    # 使用 main 程序加载模型
    ./main -m /path/to/output.gguf -p "Hello, world!"
    

    5. 使用转换后的模型

    转换后的 gguf 文件可以直接用于 llama.cpp 项目中的推理任务。你可以将其部署到你的应用程序中,或者用于其他需要高效加载和推理的场景。

    注意事项

    • 确保你下载的模型与 llama.cpp 支持的模型架构兼容。
    • 转换过程中可能需要调整一些参数,具体取决于模型的架构和大小。

    通过以上步骤,你应该能够成功将 safetensors 格式的模型转换为 gguf 格式,并在 llama.cpp 项目中使用。

    评论

报告相同问题?

问题事件

  • 已结题 (查看结题原因) 3月24日
  • 修改了问题 3月13日
  • 修改了问题 3月11日
  • 修改了问题 3月11日
  • 展开全部