这项由韩国科学技术院(KAIST)人工智能研究生院的李熙俊、朴根等研究人员领导的研究发表于2025年2月的学术期刊,论文题目为"Extending Language Model Context Up to 3 Million Tokens on a Single GPU"。有兴趣深入了解的读者可以通过arXiv:2502.08910v1访问完整论文。该研究团队还与DeepAuto.ai公司合作,共同开发了这项突破性技术。
现代人工智能就像一个极其聪明但健忘的助手。当你跟它聊天时,它能理解复杂的问题,给出精彩的回答,但有个致命弱点:记不住太多东西。就好比一个人只能记住最近几句话,再往前的内容就会忘得一干二净。这个问题在人工智能领域被称为"上下文长度限制",简单说就是AI的"短期记忆"太小了。
设想你正在与AI讨论一本长篇小说的情节发展,刚开始一切都很顺利,A