AI Insight Hub
图片转PPT
Image2PPT
图片转PPT神器
首页
分类
关于
管理后台
首页
分类
关于
管理后台
来源:ArXiv AI
2025-11-27 05:00
翻译成中文
表征干预实现终身非结构化知识控制
知识
控制
编辑
RILKE
干预
arXiv:2511.20892v1 公告类型:新 摘要:大型语言模型(LLM)通常会产生不正确或过时的内容。在不进行昂贵的再培训的情况下高效、准确地更新他们的知识是一项重大挑战。对于终生环境中的复杂、非结构化知识来说,这个问题尤其困难,因为许多编辑必须在不受干扰的情况下共存。我们引入 RILKE(终身知识控制的表示干预),这是一种稳健且可扩展的方法,它将知识控制视为模型表示空间内的干预。利用表示空间的表现力,我们确定了两个属性,使 RILKE 能够对复杂的非结构化知识进行细粒度控制,同时通过冻结的基本权重保持通用性。在训练过程中,RILKE 学习释义鲁棒性和编辑本地化模块,这些模块将每次更新限制在低维子空间,以最大限度地减少交叉编辑干扰。在推理中,查询自适应路由器选择适当的模块来指导模型的生成。在使用 LLaMA 和 Qwen 模型对知识编辑基准进行评估时,RILKE 可扩展到大规模数据集,展示出高编辑成功率、强大的释义泛化性,并以适度的内存开销保留通用实用性。这些结果表明 RILKE 是法学硕士终身知识控制的有效且可扩展的解决方案。
查看原始链接
相关文章推荐
2026 年的数据科学:还值得吗?
2025-11-28
为什么我们多年来一直在法学硕士中优化错误的事情
2025-11-28
产品健康评分:我如何通过统一监控和 n8n 自动化将严重事件减少 35%
2025-11-28
返回首页