Google DeepMind最近发布了一项名为V2A(Video-to-Audio)的技术,V2A能够根据视频画面和文字描述自动生成与视频内容同步的音频,也就是给 ai 视频自动配音、配乐。这使得用户可以通过文字描述来生成背景音乐、环境音效来自动生成与视频内容同步的音轨。这包括背景音乐、环境音效甚至与视频内容匹配的对话。
视频生成模型正以惊人的速度发展,但目前的视频生成模型只能生成无声输出。V2A技术成为让生成的电影栩栩如生的一种有前途的方法。
V2A主要功能
音频生成:V2A可以根据视频画面和用户提供的文字描述,自动生成与视频内容同步的音轨。
同步音频:V2A能够确保生成的音频与视频内容完美同步,使得视频和音频之间没有任何延迟或错位。
多样化音轨:用户可以为任何视频生成无限数量的音频,尝试不同的音效组合。
创意提示:V2A支持“正向提示”和“负向提示”功能,通过这些提示,用户可以精确控制生成的音频效果。
高质量音频:通过在训练过程中引入详细的声音描述和对话转录,生成的音轨真实且富有表现力。
自动化处理:V2A系统不需要手动对齐生成的声音与视频,减少了调整声音、视觉和时间元素的繁琐工作。
V2A工作原理
输入视频和文字描述:用户提供视频和文字描述作为输入。
视频编码:系统将视频转换成AI可以处理的格式。
生成音频:AI模型从随机噪声开始,逐步生成与视频和文字描述相匹配的音频。
合成音频和视频:生成的音频与视频结合,形成完整的音视频文件。
调整和控制:用户可以提供额外的提示进行调整,以满足特殊需求。
V2A技术发展
尽管V2A技术已经展现出巨大潜力,DeepMind团队仍在不断改进和完善这项技术。目前的研究方向和改进目标包括:
音频输出质量改进:确保在各种视频质量下保持音频输出的一致性和高质量。
唇同步改进:改进对话视频中的唇同步问题,确保生成的语音与角色的唇部动作完美同步。
处理视频失真:解决视频失真或内容超出模型训练数据分布时的音频生成问题。
安全与透明性:进行严格的安全评估和测试,确保技术的安全性和透明性。
V2A的应用很广泛,从社交媒体内容制作到电影和广告的音频设计都有无限的可能。
V2A 技术的独特之处在于,它可以理解视频中的原始像素,并自动将生成的声音与视频同步,目前,V2A尝试通过输入的对话文本生成与角色唇部动作同步的语音,但有时会出现视频中的口型与生成的语音不完全匹配的情况。DeepMind正在致力于改进这一方面。
详细情况:https://deepmind.google/discover/blog/generating-audio-for-video/