最新最热精华悬赏待回答 筛选
  • 3

    回答

Ollama 本地已下载模型运行时报 403 Forbidden 问题描述 环境信息: OS: Windows 11Ollama 版本: (请填 ollama --version)模型: kimi-

  • 2

    回答

各位技术同行们好! 我是一名有多年经验的软件开发工程师,主要技术栈是[等]。最近一年,从GitHub Copilot、CursorC++、Trae到各种AI代码生成工具,再到公司内部开始尝试引入大模型

  • 1

    回答

1、AI系统高度依赖训练数据,如果数据存在偏差或错误,会产生哪些潜在风险?2、AI广泛使用个人数据时,如何在创新与隐私保护之间找到平衡?

  • 1

    回答

我感觉我配的没错啊,这个mcp,opencode也正确加载了他还是不能正常连接到我的浏览器,我的playwright MCP bridge也安装了,打开开发者模式了,拿到了这个扩展的token填进去了

  • 2

    回答

labview使用文件解压缩功能块后怎样将解压缩的文件复制至指定位置?

  • 1

    回答

大家做前端都咋样了,25年毕业刚工作半年多现在看到很多裁前端的信息已经开始焦虑了,我应该学点啥?

  • 2

    回答

为什么在pycharm中配置不了opencode? 报错如下 java.lang.NullPointerException at java.base/java.util.Objects.req

  • 2

    回答

我们公司想要做一个信息化平台,还有相对应的移动端。想通过AI编程的方式去完成这个,这个是可以实现的吗?寻找这方面的人才以及团队。

  • 1

    回答

windsurf更新后不能免费用“GPT-5.2 Medium Reasoning Fast”了,千万不要更新!我之前一直是反复注册免费用的有没有老哥能给个以前的安装包,最好分享一下windsurf配

  • 2

    回答

想做一个把文件发给ai,ai提取文件信息自动生成一个要素式起诉状的一个网页,本地安装ollama以及unstructured,下载了一个ai模型qwen2:7b,网页能跑通但是ai不会提取文字生成起诉

  • 2

预想效果: 直接对文档进行提问,基于给出的文件内容总结答案,并了解文件来源文件 问题描述: 每次从各种类型的文件资料中寻找自己要的那个信息太难找了,尤其是对于新员工来说,每次来一个新员工就得教各种资料

ComPDF
采纳率100%
  • 2

作为一名程序员,面对日常繁琐的代码编写、调试和学习新技术等任务时,我们常常希望能够有一种工具,可以让工作变得更加高效,减少重复性的劳动。而AI工具,特别是ChatGPT Plus和Claude,正是这

领悟661
采纳率100%
  • 3

    回答

我opencode本地部署成功后让它帮我创建一个项目结束后就是出问题了,鼠标移动就会自动乱打在opencode的输入栏,关闭页面后就一直提升重复创建package.json,把opencode卸载重新

  • 2

    回答

我是怎么把 GPT / Gemini / Grok 真正用成“生产力”的(附:常用提示词模板 & 高频问题答疑) 我算是那种写代码不怕加班,就怕低效的人。过去一年我把 AI 当成“工具链的一部分”,从

  • 2

    回答

请问kiro这是咋了嘛,突然一直就是这样了,指导一下麽,thank you

  • 2

    回答

如题,现在ai可以实现生成前后端一体的页面,还可以可视化编辑内容,还可以生成视频,图片,那么AI还有什么令人惊艳的功能,令人眼前一亮的

  • 3

    回答

为什么这个代码结果会是4而不是半圆的面积,代码里面有什么具体问题?

  • 2

    回答

如何在交互界面上呈现模型的不确定性(例如步骤置信、事实来源、可能失败的概率),以便提高用户的判断效率而不增加认知负担? 背景:一些可视化研究与人因工程文献,但缺少具体到智能体/Agent 场景的 UX

  • 2

    回答

当模型给出建议(例如法律文本修改或医学建议)时,如何量化“建议的可采纳性”(actionability)而不仅是语法/可读性?是否能提出界定 actionability 的客观指标并在用户研究中验证?

  • 2

    回答

在保证长上下文语义连贯的同时,如何设计高效的“动态上下文裁剪”策略(既保留关键历史又不爆显存),并给出该策略比简单 sliding-window 或 recency-based 策略的严格改进证明或实

  • 3

trae接入deepseekV3.2怎么接入? 应该选哪个?还是选自定义模型?

Z寒火
采纳率61.1%
  • 2

    回答

当前多为 task-level 或 aggregated 指标(BLEU、ROUGE、EM 等),但缺少衡量“多步骤工具调用正确性”的细粒度基准。能否提供一个通用的、可扩展的评测框架来衡量 Agent

  • 2

    回答

如何在多模态推理中处理“模态间信息冲突”——例如图像提示和文本上下文互相矛盾时,模型应如何判定证据优先级并解释其选择? 看过少数关于模态置信度估计与基于注意力权重的解释方法。发现没有成熟的机制决定“哪

  • 2

    回答

在多模态场景(文本+图像+短视频+音频)中,如何保证跨模态推理的语义一致性?有没有一种可量化的“跨模态一致性分数”供模型在生成时优化? 当前简单了解 CLIP、Multimodal Transform

  • 2

    回答

是否存在可信的在线微调(online fine-tuning)范式,能够在用户反馈到来时增量更新模型行为而不导致灾难性遗忘或性能偏移? 看的一些资料:有基于 LoRA 的增量适配、少量样本的在线学习工

  • 2

    回答

如何在保持模型推理稳定性的同时实现“可插拔的长期记忆层”(persistent memory),支持:高频知识增量写入、低延迟检索以及版本化回滚? 当前对外部向量数据库 + RAG、可微记忆网络(DN

  • 2

    回答

当 Agent 面临“不可预见的外部错误”(网络失败、API 限制、数据格式异常)时,是否有稳健的错误恢复策略模板?如何在不中断任务语义的前提下“优雅降级”并向用户透明报告? 已查阅部分工程实践提到重

  • 2

    回答

在复杂任务(多工具、多调用、需状态管理)下,如何设计一个可证明稳定的“工具调用调度器”(tool scheduler)——既能避免无限循环调用,也能保证工具组合的完备性与效率? 目前简单看过使用 Fu

  • 2

    回答

能否提出一种端到端可微的“事实一致性校验器”架构(可插拔到大模型生成流程中),并证明其相比单次后处理 fact-check 的优势? 阅读了基于检索的 RAG、后置 fact-checker、以及用二

  • 4

    回答

我自己编写的英语句子树提示词,怎么也达不到想要的结果。我使用的是豆包,在对话模式下准确可以达到80%以上,但因为要用进程序里,只能在PromptPilot里用模型回答,,总有这个错那个错的。折腾了近1