试图了解 C# 中关于 NAudio 的缓冲区

Ruv*_*vim 3 c# naudio

我是一名化学专业的学生,​​试图在 C# 中使用 NAudio 从我的计算机麦克风收集数据(计划稍后切换到音频端口,以防这与如何回答有关)。我了解源流是什么,以及 NAudio 如何使用事件处理程序来知道是否开始从所述流中读取信息,但是在处理从流中读取的数据时,我感到很困惑。据我了解,缓冲区数组是从源流中以字节或 WAV 格式填充的(使用 AddSamples 命令)。现在,我要做的就是填充缓冲区并将其内容写入控制台或进行简单的可视化。我似乎无法从缓冲区中获取我的值,并且我尝试将其视为 WAV 和字节数组。有人可以帮助我了解 NAudio 如何从头开始工作,以及如何从缓冲区中提取数据并将其存储为更有用的格式(即双精度)?这是我迄今为止处理 NAudio 及其附带的所有代码的代码:

public NAudio.Wave.BufferedWaveProvider waveBuffer = null; // clears buffer 

NAudio.Wave.WaveIn sourceStream = null; // clears source stream

public void startRecording(int samplingFrequency, int deviceNumber, string fileName)
{       
    sourceStream = new NAudio.Wave.WaveIn(); // initializes incoming audio stream
    sourceStream.DeviceNumber = deviceNumber; // specifies microphone device number 
    sourceStream.WaveFormat = new NAudio.Wave.WaveFormat(samplingFrequency, NAudio.Wave.WaveIn.GetCapabilities(deviceNumber).Channels); // specifies sampling frequency, channels

    waveBuffer = new NAudio.Wave.BufferedWaveProvider(sourceStream.WaveFormat); // initializes buffer

    sourceStream.DataAvailable += new EventHandler<NAudio.Wave.WaveInEventArgs>(sourceStream_DataAvailable); // event handler for when incoming audio is available

    sourceStream.StartRecording();

    PauseForMilliSeconds(500); // delay before recording is stopped          

    sourceStream.StopRecording(); // terminates recording
    sourceStream.Dispose();
    sourceStream = null;
}

void sourceStream_DataAvailable(object sender, NAudio.Wave.WaveInEventArgs e)
{
    waveBuffer.AddSamples(e.Buffer, 0, e.BytesRecorded); // populate buffer with audio stream
    waveBuffer.DiscardOnBufferOverflow = true;
}
Run Code Online (Sandbox Code Playgroud)

Goo*_*ide 6

免责声明:我对 NAudio 没有太多经验。


这有点取决于您想对音频数据做什么。

如果您只是想存储或转储数据(无论是文件目标还是控制台),那么您不需要BufferedWaveProvider. 直接在事件处理程序中做任何你想做的事情sourceStream_DataAvailable()。但请记住,您以原始字节形式接收数据,即实际构成录制音频的单个帧(又名样本)的字节数取决于波形格式:

var bytesPerFrame = sourceStream.WaveFormat.BitsPerSample / 8
                  * sourceStream.WaveFormat.Channels
Run Code Online (Sandbox Code Playgroud)

如果您想分析数据(例如,使用 FFT 进行傅立叶分析),那么我建议使用 NAudio 的ISampleProvider. 该接口隐藏了所有原始字节、位深度的内容,并让您以简单的方式逐帧访问数据。

首先ISampleProvider从你的BufferedWaveProvider喜欢创建一个:

var samples = waveBuffer.ToSampleProvider();
Run Code Online (Sandbox Code Playgroud)

然后,您可以使用该Read()方法访问示例框架。确保检查数据是否确实可BufferedBytes用于您的BufferedWaveProvider:

while (true)
{
    var bufferedFrames = waveBuffer.BufferedBytes / bytesPerFrame;        

    if (bufferedFrames < 1)
        continue;

    var frames = new float[bufferedFrames];
    samples.Read(frames, 0, bufferedFrames);

    DoSomethingWith(frames);
}
Run Code Online (Sandbox Code Playgroud)

因为您想同时做两件事——同时记录和分析音频数据——为此您应该使用两个单独的线程。

有一个小型 GitHub 项目使用 NAudio对录制的音频数据进行 DTMF 分析。您可能想看看如何将它们整合在一起以获得一些想法。该文件DtmfDetector\Program.cs有一个很好的起点。


为了快速开始,应该给你“更连贯”的输出,请尝试以下操作:

将此字段添加到您的课程中:

ISampleProvider samples;
Run Code Online (Sandbox Code Playgroud)

将此行添加到您的方法中startRecording()

samples = waveBuffer.ToSampleProvider();
Run Code Online (Sandbox Code Playgroud)

sourceStream_DataAvailable()像这样扩展:

void sourceStream_DataAvailable(object sender, NAudio.Wave.WaveInEventArgs e)
{
    waveBuffer.AddSamples(e.Buffer, 0, e.BytesRecorded);
    waveBuffer.DiscardOnBufferOverflow = true;

    var bytesPerFrame = sourceStream.WaveFormat.BitsPerSample / 8
                      * sourceStream.WaveFormat.Channels
    var bufferedFrames = waveBuffer.BufferedBytes / bytesPerFrame;

    var frames = new float[bufferedFrames];
    samples.Read(frames, 0, bufferedFrames);

    foreach (var frame in frames)
        Debug.WriteLine(frame);
}
Run Code Online (Sandbox Code Playgroud)