来源:ArXiv AI
2026-01-30 05:00
AMA:通过多智能体协作实现自适应记忆
检索
AMA
记忆
代理
粒度
arXiv:2601.20352v1 公告类型:新
摘要:大型语言模型(LLM)代理的快速发展需要强大的记忆系统来支持内聚的长期交互和复杂的推理。受益于法学硕士的强大能力,最近的研究重点已经从简单的上下文扩展转向专用代理记忆系统的开发。然而,现有的方法通常依赖于严格的检索粒度、大量积累的维护策略和粗粒度的更新机制。这些设计选择在存储的信息和特定于任务的推理需求之间造成了持续的不匹配,同时导致逻辑不一致随着时间的推移而不受控制地积累。为了应对这些挑战,我们提出了通过多代理协作(AMA)的自适应记忆,这是一种利用协调代理跨多个粒度管理记忆的新颖框架。 AMA 采用分层内存设计,可动态调整检索粒度与任务复杂性。具体来说,构造函数和检索器共同实现多粒度内存构建和自适应查询路由。法官验证检索内容的相关性和一致性,在证据不足时触发迭代检索,或在检测到逻辑冲突时调用复习。然后,Refresher 通过执行有针对性的更新或删除过时的条目来强制内存一致性。对具有挑战性的长上下文基准进行的大量实验表明,AMA 显着优于最先进的基线,同时与全上下文方法相比,令牌消耗减少了约 80%,证明了其在保持检索精度和长期记忆一致性方面的有效性。