Rae*_*vik 8 audio android signal-processing noise-reduction audiorecord
我正在开展一项雄心勃勃的项目,通过耳机或耳机在Android上实现主动降噪.
我的目标是用Android手机麦克风记录环境噪音,反相(从音频记录中拉出的短值上的简单*-1),并通过耳机播放倒置的波形.如果延迟和幅度接近正确,则应该使环境中的大量机械结构噪声无效.
这是我到目前为止所得到的:
@Override
    public void run()
    {
        Log.i("Audio", "Running Audio Thread");
        AudioRecord recorder = null;
        AudioTrack track = null;
        short[][] buffers  = new short[256][160];
        int ix = 0;
    /*
     * Initialize buffer to hold continuously recorded audio data, start recording, and start
     * playback.
     */
        try
        {
            int N = AudioRecord.getMinBufferSize(8000,AudioFormat.CHANNEL_IN_MONO,AudioFormat.ENCODING_PCM_16BIT);
            recorder = new AudioRecord(MediaRecorder.AudioSource.MIC, 8000, AudioFormat.CHANNEL_IN_MONO, AudioFormat.ENCODING_PCM_16BIT, N*10);
            //NoiseSuppressor ns = NoiseSuppressor.create(recorder.getAudioSessionId());
            //ns.setEnabled(true);
            track = new AudioTrack(AudioManager.STREAM_MUSIC, 8000,
                    AudioFormat.CHANNEL_OUT_MONO, AudioFormat.ENCODING_PCM_16BIT, N*10, AudioTrack.MODE_STREAM);
            recorder.startRecording();
            track.play();
        /*
         * Loops until something outside of this thread stops it.
         * Reads the data from the recorder and writes it to the audio track for playback.
         */
            while(!stopped)
            {                    
                short[] buffer = buffers[ix++ % buffers.length];
                N = recorder.read(buffer,0,buffer.length);
                for(int iii = 0;iii<buffer.length;iii++){
                    //Log.i("Data","Value: "+buffer[iii]);
                    buffer[iii] = buffer[iii] *= -1;                        
                }                    
                track.write(buffer, 0, buffer.length);
            }
        }
        catch(Throwable x)
        {
            Log.w("Audio", "Error reading voice audio", x);
        }
    /*
     * Frees the thread's resources after the loop completes so that it can be run again
     */
        finally
        {
            recorder.stop();
            recorder.release();
            track.stop();
            track.release();
        }
    }
我一时兴奋地发现Android API实际上已经有了一个NoiseSuppression算法(你会在上面看到它注释掉).我用它进行了测试,发现NoiseSuppressor没有做太多的事情来消除恒定的音调,这让我相信它实际上只是在非人声频率下执行带通滤波器.
所以,我的问题:
1)上述代码从麦克风录制到耳机播放大约需要250-500毫秒.这种延迟很糟糕,减少它会很棒.任何建议将不胜感激.
2)无论延迟有多紧,我的理解是回放波形将与实际环境噪声波形相位偏移.这表明我需要执行某种波形匹配来计算此偏移并进行补偿.关于如何计算的想法?
3)当谈到补偿延迟时,它会是什么样子?我在每个周期都有一系列短路,那么30ms或250ms的延迟是什么样的?
我知道这种方法存在的基本问题是手机的位置不在头部附近可能会引入一些错误,但我希望通过动态或固定延迟修正来解决它. .
谢谢你的任何建议.
即使您能够对延迟采取一些措施,这也是一个难题,因为您不知道手机到耳朵的距离,而且距离不是固定的(因为用户会移动手机),再加上您的每只耳朵都没有麦克风(因此,即使您的延迟为零,您也无法知道电波在一只耳朵处的情况,直到它到达那里为止)
话虽如此,您也许可以采取一些措施来消除高度周期性的波形。不过,您所能做的就是允许用户手动调整每只耳朵的时间延迟 - 由于耳朵本身附近没有麦克风,因此您无法在代码中知道您是否使问题变得更好或更糟。
| 归档时间: | 
 | 
| 查看次数: | 14889 次 | 
| 最近记录: |