谷歌发布音乐生成模型 自动生成音乐
中关村在线
2023-07-27 17:21:56
(资料图片仅供参考)
近日,谷歌发布了一项名为“Brain2Music”的研究,该研究利用人工智能技术读取和分析人的功能性磁共振成像(fMRI)数据,然后根据个体的大脑活动自动生成音乐。 在这项研究中,研究人员招募了5名志愿者,让他们先听取包括蓝调、古典、乡村、迪斯科、嘻哈、爵士乐、金属、流行、雷鬼和摇滚等不同音乐类型的15秒音乐片段,然后记录他们的fMRI数据。谷歌利用这些数据训练了一个深度神经网络,以便更好地理解大脑活动模式与音乐节奏和情感等不同元素之间的关系。 “Brain2Music”是基于谷歌此前推出的“MusicLM”模型(基于文本生成音乐片段)进行研发的,它可以根据fMRI数据生成15秒的音乐片段。研究结果显示,“Brain2Music”生成的15秒音乐片段中,有一段内容与测试听到的原版音乐“Oops!...I Did It Again”基本相同。 对于这项研究感兴趣的读者,可以通过下载相关论文进行深入阅读。
x