nay*_*Pan 7 signal-processing machine-learning audio-fingerprinting audio-processing mfcc
对于我的最后一年项目,我试图实时识别狗/树皮/鸟的声音(通过录制声音片段).我使用MFCC作为音频功能.最初我使用jAudio库从声音片段中提取了12个MFCC向量.现在我正在尝试训练机器学习算法(目前我尚未确定算法,但它很可能是SVM).声音片段大小约为3秒.我需要澄清一些有关此过程的信息.他们是,
我是否必须使用基于帧的MFCC(每帧12个)或基于整个剪辑的MFCC(每个声音剪辑12个)训练此算法?
为了训练算法,我必须将所有12个MFCC视为12个不同的属性,还是必须将这12个MFCC视为一个属性?
这些MFCC是剪辑的整体MFCCS,
-9.598802712290967 -21.644963856237265 -7.405551798816725 -11.638107212413201 -19.441831623156144 -2.780967392843105 -0.5792847321137902 -13.14237288849559 -4.920408873192934 -2.7111507999281925 -7.336670942457227 2.4687330348335212
任何帮助将非常感谢克服这些问题.我无法在Google上找到很好的帮助.:)
您应该计算每帧的 MFCC。由于您的信号随时间变化,因此将它们接管整个剪辑是没有意义的。更糟糕的是,您最终可能会得到具有相似表示的狗和鸟。我会尝试几种帧长度。通常,它们将按毫秒顺序排列。
所有这些都应该是单独的功能。让机器学习算法决定哪个是最好的预测器。
请注意 MFCC 对噪声很敏感,因此请先检查您的样本听起来如何。例如Yaafe 库提供了更丰富的用于提取的音频特征选择,其中许多将在您的情况下提供更好的服务。具体哪个?以下是我发现在鸟叫分类中最有用的内容:
也许您可能会发现查看这个项目很有趣,尤其是我与 Yaafe 交互的部分。
回到我使用 SVM 的日子,正如您计划的那样。今天我肯定会使用梯度提升。
| 归档时间: |
|
| 查看次数: |
1877 次 |
| 最近记录: |