最新最热精华悬赏待回答 筛选
  • 1

    回答

下面这个表格对比了传统搜索、社交平台搜索和AI搜索在2026年的核心差异。你可以先快速看一遍,我再补充几个关键结论。 对比维度 🔍 传统搜索 (Google / 百度) 📱 社交平台搜

  • 2

    回答

公司目前让我部署小龙虾,公司接入小龙虾后主要用于飞书app,不写代码,接入智普5.1的大模型可以吗?或者用哪个模型的api合适呢?求推荐,谢谢!

  • 3

    回答

如何成为一个AI agent开发工程师?最近一直在纠结未来的发展发向,被AI的潮流冲击的体无完肤。

  • AIGC
  • 8
  • 2026-04-02 11:04
  • 2

    回答

现在小龙虾成了人人出口必谈的话题,作为完全不懂的我一开始是还以为大家都是吃过,怎么会聊小龙虾,莫非吃虾季节到了?🤔用豆包科普了下才知道原来是强大的Ai工具,可以帮我们解决繁琐的工作,让它作为我们的打

  • AIGC
  • 6
  • 2026-03-23 16:51
  • 1

    回答

求各位佬赐教!我用的是ComfyUI模板库里自带的Hunyuan3D v2.1工作流,如下:输入图片如下:得到的模型如下:换着试了好多图片,都用同样的问题。想问问这是什么情况。但是同样的图片我去腾讯混

回答 TreZ
采纳率50%
  • 2

    回答

docker和GPU是啥关系?docker中部署ragflow,ragflow怎么弄成用GPU跑?

  • 1

    回答

这是什么排序啊,Swap 函数成功地交换了 num1 和 num2 的值。调用 Swap 函数前,num1 的值是 10,num2 的值是 20;调用 Swap 函数后,num1 的值变为 20,nu

  • AIGC
  • 1
  • 2025-12-22 17:11
  • 2

    回答

多论文谈 Reasoning,但很少覆盖 Graph in Continual Chat Setting。 当前业界是否有指标量化长期对话中结构退化、节点错误累积的情况?

  • 3

    回答

学术界已有 LLM-as-Planner & ToT 研究,但我还没看到 LangGraph 提供可学习 Planner。 在LANGGRAPH种业界是否已经引入了存在 Graph Planner 训

  • 3

    回答

我查了 Reflexion, DEPS 等自反推理研究,但未看到 LangGraph 实现真正的 Adaptive Retry Policy。 市面上当前是否有动态重试策略或自调节 Backtrack

  • 3

    回答

许多论文(DeepSeek, OpenAI o1, Safe RLHF)探讨行为对齐,但我没看到 LangGraph 提供中间策略验证机制。 当前业内是否在开发的时候有加入 Reward Model

  • 3

目前我看到的一些网上的案例更聚焦 Text-Agent,但未讨论 multimodal I/O schema。 当前市面上是否有将 Node 输入输出结构标准化,让视觉/音频/结构化数据更可组合?

张彦峰ZYF
采纳率3.4%
  • 3

    回答

在相关论文中没有看到 Graph Structure Minimization 相关内容,但大型 Agent Pipeline 增长成百上千节点是现实可能。当前有啥好的项目是否会引入 Graph Co

  • 3

    回答

目前 Memory 更像 Key-Value Store,而知识是静态的。我未查到能支持时间权重、版本回退、记忆老化衰减的数据结构研究,有方向推荐吗?

  • 3

    回答

我查过几篇 RAG + Agent 框架(DSPy, Adept Fuyu 相关论文),但未看到 Retrieval Confidence 被直接用于 Edge Routing 的方法。LangGra

  • 2

    回答

我在查阅 LangGraph + ReAct 的相关实验论文时,没有看到对 Memory 在连续推理过程中产生累积偏移(context drift)的问题分析。是否存在已验证的 Memory Deca

  • 2

    回答

如何在交互界面上呈现模型的不确定性(例如步骤置信、事实来源、可能失败的概率),以便提高用户的判断效率而不增加认知负担? 背景:一些可视化研究与人因工程文献,但缺少具体到智能体/Agent 场景的 UX

  • 2

    回答

当模型给出建议(例如法律文本修改或医学建议)时,如何量化“建议的可采纳性”(actionability)而不仅是语法/可读性?是否能提出界定 actionability 的客观指标并在用户研究中验证?

  • 2

    回答

对于需要边缘/本地部署的场景,如何在有限算力下实现“近似RAG”或“轻量化长期记忆”方案,使得离线模型仍能保持较高事实性与低延迟? 背景:有一些蒸馏、量化、局部向量索引及混合检索策略的工作。未解决点:

  • 2

    回答

在保证长上下文语义连贯的同时,如何设计高效的“动态上下文裁剪”策略(既保留关键历史又不爆显存),并给出该策略比简单 sliding-window 或 recency-based 策略的严格改进证明或实

  • 3

    回答

在评估“长期记忆正确性”时,如何设计基准使其同时考察记忆插入、检索有效性和更新后的一致性(即写入后并不会导致旧知被错误覆盖)? 看到业界见到有些工作只测试检索准确率或插入延迟,未结合版本化和一致性测试

  • 2

    回答

当前多为 task-level 或 aggregated 指标(BLEU、ROUGE、EM 等),但缺少衡量“多步骤工具调用正确性”的细粒度基准。能否提供一个通用的、可扩展的评测框架来衡量 Agent

  • 2

    回答

如何在多模态推理中处理“模态间信息冲突”——例如图像提示和文本上下文互相矛盾时,模型应如何判定证据优先级并解释其选择? 看过少数关于模态置信度估计与基于注意力权重的解释方法。发现没有成熟的机制决定“哪

  • 2

    回答

在多模态场景(文本+图像+短视频+音频)中,如何保证跨模态推理的语义一致性?有没有一种可量化的“跨模态一致性分数”供模型在生成时优化? 当前简单了解 CLIP、Multimodal Transform

  • 2

    回答

是否存在可信的在线微调(online fine-tuning)范式,能够在用户反馈到来时增量更新模型行为而不导致灾难性遗忘或性能偏移? 看的一些资料:有基于 LoRA 的增量适配、少量样本的在线学习工

  • 2

    回答

如何在保持模型推理稳定性的同时实现“可插拔的长期记忆层”(persistent memory),支持:高频知识增量写入、低延迟检索以及版本化回滚? 当前对外部向量数据库 + RAG、可微记忆网络(DN

  • 2

    回答

当 Agent 面临“不可预见的外部错误”(网络失败、API 限制、数据格式异常)时,是否有稳健的错误恢复策略模板?如何在不中断任务语义的前提下“优雅降级”并向用户透明报告? 已查阅部分工程实践提到重

  • 2

    回答

在复杂任务(多工具、多调用、需状态管理)下,如何设计一个可证明稳定的“工具调用调度器”(tool scheduler)——既能避免无限循环调用,也能保证工具组合的完备性与效率? 目前简单看过使用 Fu

  • 2

    回答

能否提出一种端到端可微的“事实一致性校验器”架构(可插拔到大模型生成流程中),并证明其相比单次后处理 fact-check 的优势? 阅读了基于检索的 RAG、后置 fact-checker、以及用二

  • 2

    回答

在开放域长链路推理中,如何构造可证明的“可信度分层”(confidence calibration)机制,使得模型在多步生成时能以可解释的小步骤概率输出并在低置信处自动触发证据检索/退回?看过一些基于

  • AIGC
  • 3
  • 2025-12-01 14:46