Jonathan Star 2023-08-03 16:09 采纳率: 69.9%
浏览 6
已结题

llama cpp 如何 编译 支持gpu 的

llama cpp 如何 编译 支持gpu 的
NVCC 致命:“F16C”:预期数字 ·问题 #1467 ·格加诺夫/美洲驼.cpp
https://github.com/ggerganov/llama.cpp/issues/1467

  • 写回答

0条回答 默认 最新

    报告相同问题?

    问题事件

    • 系统已结题 8月11日
    • 创建了问题 8月3日