音乐、说话、手势、表情——只需一张照片和一段音频,就能让静态的人物照片瞬间活起来。这听起来像是科幻电影里的情节,但现在已经成为现实。ByteDance的研究团队在2025年6月发表了一项名为"OmniHuman-1: Rethinking the Scaling-Up of One-Stage Conditioned Human Animation Models"的重要研究成果,该研究由字节跳动的林高杰、姜建文、杨佳琦、郑泽荣、梁超等研究人员共同完成,已发表在arXiv平台(论文编号:arXiv:2502.01061v3),有兴趣深入了解的读者可以通过https://omnihuman-lab.github.io/访问项目详情。
这项研究解决了一个普通人都能理解的问题:如何让静态照片中的人物"动起来"。以前,制作一个人物说话或唱歌的视频需要复杂的设备和专业技术,现在只需要一张照片和想要的音频内容,