这项由谷歌DeepMind的Michael Tschannen和Xiaohua Zhai领导的突破性研究发表于2025年2月,研究团队开发了名为SigLIP 2的新一代多语言视觉-语言编码器。有兴趣深入了解的读者可以通过arXiv:2502.14786v1访问完整论文。这项研究就像是给AI装上了一双能看懂世界各种语言文字的"超级眼睛",不仅能理解英语图片,还能准确理解中文、日语、阿拉伯语等36种不同语言的图像内容。
回想一下我们人类是如何理解图片的:当你看到一张照片时,你的大脑会瞬间将视觉信息与语言概念连接起来。比如看到一只猫的照片,你会立刻想到"猫"这个词,甚至能用语言描述猫的颜色、姿态和所在环境。而如果你掌握多种语言,你还能用不同语言来描述同一张图片的内容。
现在,研究团队成功让AI也具备了这种跨语言的"看图说话"能力,而且表现得比以往任何系统都要出色