8月28日,腾讯混元宣布开源端到端视频音效生成模型Hunyuan-Foley,该模型通过输入视频与文字描述即可自动生成电影级音效,打破传统AI视频“无声”局限。
据官方演示显示,其能精准匹配引擎轰鸣、树叶沙响等复杂声效,能“看懂画面、读懂文字、配准声音”,实现“画面-文字-声音”协同,带来沉浸式视听体验。
技术亮点包括:
多模态理解:同步解析视觉内容与语义指令,动态生成环境音、拟音等;
工业级应用:适配短视频、影视制作、游戏开发等领域,降低专业音效设计门槛。
此次开源延续腾讯混元“技术普惠”战略,开发者可通过官方渠道获取模型权重及工具链。
声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。