近日,Meta 以开源方式发布了 AI 音乐生成模型 MusicGen 的代码,该 AI 模型利用 Transformer 架构,可以根据文本和旋律提示创作音乐。
与 Riffusion、Mousai、MusicLM 和 Noise2Music 等其他音乐模型相比,MusicGen 在音乐与文本之间的匹配度以及作曲的可信度等客观和主观指标上表现得更加优异。
据介绍,MusicGen 的训练数据是从 MIDI 文件中提取而来,数据集包含从巴赫、肖邦、贝多芬等众多音乐作品中提取的旋律、和弦及伴奏等元素,并使用了对称性变换,以增强数据的多样性和真实性。
Meta 表示,MusicGen 可以应用于音乐创作、游戏音效、电影配乐等多个领域,为用户提供快速、高效的音乐生成服务。
此外,MusicGen 的开源发布还将为 AI 音乐研究和创新提供更加广阔的平台和机会,为 AI 音乐的发展注入新能量。