欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 健康 > 美食 > LLM论文笔记 27: Looped Transformers for Length Generalization

LLM论文笔记 27: Looped Transformers for Length Generalization

2025/5/5 19:36:44 来源:https://blog.csdn.net/m0_65305142/article/details/147703101  浏览:    关键词:LLM论文笔记 27: Looped Transformers for Length Generalization
  • Arxiv日期:2024.9.25

关键词

  • 长度泛化

  • transformer结构优化

核心结论

1. RASP-L限制transformer无法处理包含循环的任务的长度泛化

2. Loop Transformer显著提升了长度泛化能力

  • Input Injection 显著提升了模型的长度泛化性能,尤其在二进制加法等复杂任务上效果显著

  • 在推理中,通过输出置信度判断迭代停止点的策略能够实现接近最佳的性能

主要方法

Transformer在长度泛化(length generalization)上表现有限,尤其是对未见长度的输入。本文重点研究解决这一问题的Loop Transformer架构(Looped Transformers),通过循环处理增加模型对输入长度的适应能力。

n-RASP-L问题:(=n循环RASP-L问)定义了一类任务,这些任务可以通过多次迭代应用某些基础操作(RASP-L操作)来解决。这些任务包括复制、求和、二进制加法等。

本质上是将内部无法处理的循环替换到外部,做到“n次transformer”

注:本系列不包括基础的知识点讲解,为笔记/大纲性质而非教程,用于论文知识点和思想和快速记忆和回顾,更多细节建议阅读论文原文

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词