一项来自意大利的新的人工智能研究介绍了一种基于扩散的生成模型,能够同时进行音乐合成和源分离。这种模型使用了源的联合概率密度作为先验分布进行训练,通过对先验进行采样来进行生成任务,通过将先验分布与混合物进行条件化并从结果的后验分布中进行采样来进行分离任务。
研究人员使用了 Slakh2100数据集进行实验,该数据集包含2100个音轨,是一个用于源分离的标准数据集。研究人员使用基于扩散的生成模型和得分匹配进行训练,并引入了一种基于 Dirac delta 函数的采样方法。
实验结果表明,该模型在分离任务上的性能与其他先进的回归模型相当。研究人员表示,当前可用的上下文数据量限制了算法的性能,并考虑使用预先分离的混合物作为数据集来解决这个问题。
总而言之,这项由 GLADIA Research Lab 提供的多源扩散模型在音乐领域的分离和总体以及部分生成方面是一种新的范例。研究人员希望他们的工作能够鼓励其他学者在音乐领域进行更深入的研究。