这项由DeepSeek-AI公司、北京大学以及华盛顿大学联合开展的研究于2025年2月发表在arXiv预印本平台上。研究团队包括来自DeepSeek-AI的高华卓、戴大迈等研究人员,以及北京大学多媒体信息处理重点实验室的袁景阳、张明等学者。有兴趣深入了解的读者可以通过论文编号arXiv:2502.11089v2访问完整论文。
现代AI就像一个超级聪明的学生,需要同时处理成千上万的信息。当我们让AI阅读一本长篇小说或分析一份复杂报告时,它需要记住每一个细节,并理解这些细节之间的关系。然而,就像人类大脑一样,AI也有处理能力的限制。传统的AI模型在处理长文本时,就像试图同时记住图书馆里每本书的每个字一样困难。
研究团队发现了一个有趣的现象:当AI在阅读和理解文本时,它实际上并不需要对每个词都投入同等的注意力。就像我们在阅读时会重点关注关键词句,快速浏览不太重要