这项由Hugging Face团队完成的研究发表于2025年2月,详细记录了SmolLM2语言模型的完整开发过程。这篇长达25页的技术报告由Loubna Ben Allal、Anton Lozhkov、Elie Bakouch等15位研究者共同完成,完整论文可通过arXiv:2502.02737v1访问。有兴趣深入了解技术细节的读者可以在Hugging Face官方网站找到相关模型和数据集的下载链接。
当我们谈论人工智能语言模型时,很多人首先想到的是那些拥有数千亿参数的"巨无霸"模型,就像城市中那些摩天大楼一样引人注目。然而,就如同不是每个人都需要住在摩天大楼里一样,不是所有的应用场景都需要这样的"大家伙"。有时候,一个精致的小公寓可能更实用、更经济,也更适合日常生活。这正是Hugging Face团队开发SmolLM2时的核心理念。
SmolLM2是一个