Jonathan Star 2023-08-03 16:09 采纳率: 76.7%
浏览 5
已结题

llama cpp 如何 编译 支持gpu 的

llama cpp 如何 编译 支持gpu 的
NVCC 致命:“F16C”:预期数字 ·问题 #1467 ·格加诺夫/美洲驼.cpp
https://github.com/ggerganov/llama.cpp/issues/1467

  • 写回答

0条回答 默认 最新

    报告相同问题?

    问题事件

    • 系统已结题 8月11日
    • 创建了问题 8月3日

    悬赏问题

    • ¥20 校园二手交易小程序搭建
    • ¥15 请问在ubuntu用conda创建环境报错怎么能解决
    • ¥15 STM32CubeMX/proteus按键控制指示灯颜色切换
    • ¥20 python,计算区位熵和扩张指数
    • ¥15 Python环境配置
    • ¥15 大四学生的困惑,有偿提问!
    • ¥15 解决页面无法编入索引:被“noindex”标签排除的问题?
    • ¥15 arduino测量电阻
    • ¥15 快手uid转快手号谁能解决 需要开发
    • ¥15 iis部署Django时css不生效,来个真人,ai不好使