1 个月前

深度研究者与测试时扩散

Rujun Han, Yanfei Chen, Zoey CuiZhu, Lesly Miculicich, Guan Sun, Yuanjun Bi, Weiming Wen, Hui Wan, Chunfeng Wen, Sol\u00e8ne Ma\u00eetre, George Lee, Vishy Tirumalashetty, Emily Xue, Zizhao Zhang, Salem Haykal, Burak Gokturk, Tomas Pfister, Chen-Yu Lee
深度研究者与测试时扩散
摘要

由大型语言模型(LLMs)驱动的深度研究代理正在迅速发展;然而,当使用通用的测试时缩放算法生成复杂且长篇的研究报告时,其性能往往会出现瓶颈。受人类研究过程迭代性质的启发,该过程包括搜索、推理和修订的循环,我们提出了测试时扩散深度研究者(Test-Time Diffusion Deep Researcher,TTD-DR)。这一创新框架将研究报告的生成视为一个扩散过程。TTD-DR 从一份初步草案(可更新的框架结构)开始这一过程,作为不断演进的基础,用于引导研究方向。随后,通过一个“去噪”过程对草案进行迭代优化,该过程在每一步都通过检索机制动态引入外部信息。此外,通过将自我进化算法应用于智能体工作流的每个组件,进一步提升了核心流程,确保扩散过程生成高质量的上下文信息。这种以草案为中心的设计使报告撰写过程更加及时和连贯,同时减少了迭代搜索过程中的信息丢失。我们证明,TTD-DR 在一系列需要大量搜索和多跳推理的基准测试中取得了最先进的结果,显著优于现有的深度研究代理。

深度研究者与测试时扩散 | 论文 | HyperAI超神经