Meta 使艺术家和声音设计师能够更轻松地仅使用人工智能来制作音频。Facebook 所有者发布了一个开源 AudioCraft 套件,该套件捆绑了三个现有的生成人工智能模型,用于根据文本描述创建声音。AudioGen和MusicGen分别产生音效和音乐,而EnCodec则压缩声音以产生更高质量的结果。音乐家或声音设计师可能拥有创作作品所需的一切。
该版本包括为那些想要快速入门的人提供的预训练 AudioGen 模型,而修补者将可以访问整个 AudioCraft 代码和模型权重。Meta 表示,开源的首次亮相让专业人士和研究人员有机会使用自己的数据训练模型。所有预训练的模型都使用公共或元拥有的材料,因此不存在版权纠纷。
该科技公司将 AudioCraft 描述为一种使生成人工智能音频更简单、更容易访问的方法。人工智能生成的图像和文本很受欢迎,但 Meta 认为声音“有点落后”。现有项目往往很复杂并且经常被关闭。从理论上讲,新套件让创作者有机会塑造自己的模型,并以其他方式扩展可能的范围。
这并不是市场上唯一开放的文本到音频人工智能。谷歌于五月开放了其MusicLM 模型。Meta 的系统也不是为日常用户设计的——您仍然需要具备技术上的倾向才能正确使用 AudioCraft。该公司表示,这更多的是用于研究。开发人员还试图改进这些模型的性能和控制方法,扩大它们的潜力。
不过,即使在目前的状态下,AudioCraft 也可能暗示人工智能在音乐中的作用的未来。虽然你不一定会看到艺术家使用人工智能来完全取代他们自己的创造力(即使是像 Holly Herndon 这样的实验者仍然高度参与),但他们正在获得更多工具,让他们能够以相对较少的努力创建背景音乐、样本和其他元素。