来源:ArXiv AI 2025-10-08 04:00

大型语言模型智能体行为智能的结构化认知:初步研究

模型 SCL 语言 认知 任务
arXiv:2510.05107v1 公告类型:新 摘要:大型语言模型具有先进的自然语言理解和生成能力,但它们作为自主代理的使用给多步骤任务带来了架构挑战。现有框架通常将推理、记忆和控制交织在一个提示中,这会降低连贯性和可预测性。引入结构化认知循环 (SCL) 作为分离这些功能的替代架构。在 SCL 中,语言模型专用于推理,内存在外部维护,执行由目标导向循环内的轻量级控制器引导。这种设计减轻了模型的认知负担,并允许在采取行动之前存储、重新访问和检查中间结果,从而为可追溯性和评估提供更清晰的基础。 我们根据基于提示的基线(包括 ReAct 和通用 LangChain 代理)在三个场景中评估 SCL:基于温度的旅行计划、带条件发送的电子邮件起草以及约束引导的图像生成。所有系统在匹配的解码设置下共享相同的基本模型和工具。在 360 集中,SCL 显示出适度但一致的改进。任务成功率平均为 86.3%,而基线成功率为 70-77%。目标保真度更高,冗余调用更少,中间状态的重用更可靠,并且每 100 次工具调用中不支持的断言减少。消融表明外部存储器和控制各自独立起作用,并且解码扫描证实了效果的稳定性。 这些结果表明,架构分离可以提高可靠性和可追溯性,而无需依赖更大的模型或更重的提示。这些发现是初步的,旨在指导更多模型、更长视野、多模式任务和协作环境的扩展研究。

相关文章推荐

返回首页