背靠280000小时的音乐数据集训练,MusicLM在音频质量和对文本描述的遵守方面都优于以前的模型。
《科创板日报》1月28日讯(编辑 宋子乔) 在生成式AI模型的赛道上,谷歌正一路“狂飙”。继文字生成AI模型Wordcraft、视频生成工具Imagen Video之后,谷歌将生成式AI的应用场景扩展到了音乐圈。
当地时间1月27日,谷歌发布了新的AI模型——MusicLM,该模型可以从文本甚至图像中生成高保真音乐,也就是说可以把一段文字、一幅画转化为歌曲,且曲风多样。
谷歌在相关论文中展示了大量案例,如输入字幕“雷鬼和电子舞曲的融合,带有空旷的、超凡脱俗的声音,引发迷失在太空中的体验,音乐的设计旨在唤起一种惊奇和敬畏的感觉,同时又适合跳舞”,MusicLM便生成了30秒的电子音乐。
又如以世界名画《跨越阿尔卑斯山圣伯纳隘口的拿破仑》为“题”,MusicLM生成的音乐庄重典雅,将冬日的凌厉肃杀和英雄主义色彩体现地淋漓尽致。写实油画之外,《舞蹈》《呐喊》《格尔尼卡》《星空》等抽象派画作均可为题。
MusicLM甚至可以来个音乐串烧,在故事模式下将不同风格的曲子混杂在一起。即便要求生成5分钟时长的音乐,MusicLM也不在话下。
另外,MusicLM具备强大的辅助功能,可以规定具体的乐器、地点、流派、年代、音乐家演奏水平等,对生成的音乐质量进行调整,从而让一段曲子幻化出多个版本。
MusicLM并非第一个生成歌曲的AI模型,同类型产品包括Riffusion、Dance Diffusion等,谷歌自己也发布过AudioML,时下最热门的聊天机器人“ChatGPT”的研发者OpenAI则推出过Jukebox。
MusicLM有何独到之处?
它其实是一个分层的序列到序列(Sequence-to-Sequence)模型。根据人工智能科学家Keunwoo Choi的说法,MusicLM结合了MuLan+AudioLM和MuLan+w2b-Bert+Soundstream等多个模型,可谓集大成者。
其中,AudioLM模型可视作MusicLM的前身,MusicLM就是利用了AudioLM的多阶段自回归建模作为生成条件,可以通过文本描述,以24kHz的频率生成音乐,并在几分钟内保持这个频率。
相较而言,MusicLM的训练数据更多。研究团队引入了首个专门为文本-音乐生成任务评估数据MusicCaps来解决任务缺乏评估数据的问题。MusicCaps由专业人士共建,涵盖5500个音乐-文本对。
基于此,谷歌用280000小时的音乐数据集训练出了MusicLM。
谷歌的实验表明,MusicLM在音频质量和对文本描述的遵守方面都优于以前的模型。
不过,MusicLM也有着所有生成式AI共同的风险——技术不完善、素材侵权、道德争议等。
对于技术问题,比方说当要求MusicLM生成人声时,技术上可行,但效果不佳,歌词乱七八糟、意义不明的情况时有发生。MusicLM也会“偷懒”——起生成的音乐中,约有1%直接从训练集的歌曲中复制。
另外,由AI系统生成的音乐到底算不算原创作品?可以受到版权保护吗?能不能和“人造音乐”同台竞技?相关争议始终未有一致见解。
这些都是谷歌没有对外发布MusicLM的原因。“我们承认该模型有盗用创意内容的潜在风险,我们强调,需要在未来开展更多工作来应对这些与音乐生成相关的风险。”谷歌发布的论文写道。