我有自己TrackRenderer的mp3解码器实现,我集成了.当一个棒棒糖设备进入待机状态并返回时,它并不总是可重复但音频开始口吃,直到我强制停止应用程序.
一开始,我认为这是我实现的解码器,所以我尝试将口吃轨道与正常轨道之间的文件输出进行比较.文件是完全相同的,然后我认为它可能需要很长时间来解码,所以我增加了缓冲区大小并调用了setPlayReadyfalse,以便数据缓冲.它像我没有停顿一样口吃.我目前认为问题在于我的音轨实现或操作系统错误.该错误仅发生在Lollipop设备上.
谢谢.
我TrackRenderer使用相同的工作流程为AudioTrackRenderer,与解码器支持mp3,而不是OPUS我自己的本地实现.
使用AudioTrack进行播放时,我有时需要重新采样不符合AudioTrack支持的采样率的音频.在这样做时,我需要在当前音频配置下确定当前设备下AudioTrack支持的最大采样率.
由于AudioTrack的允许采样率很难记录,我决定窥探源代码AudioTrack并发现这个惊人的界限:
private static final int SAMPLE_RATE_HZ_MAX = 96000;
Run Code Online (Sandbox Code Playgroud)
AudioTrack无论设备的实际播放能力如何,实例似乎都在应用96 KHz的硬限制.
更令人困惑的是在AudioFormat类中,我将其传递给AudioTrack包含以下行的构造函数(API 21):
if ((sampleRate <= 0) || (sampleRate > 192000)) {
Run Code Online (Sandbox Code Playgroud)
在它的setSampleRate()方法.现在这是192 KHz的硬限制.所以,传递> 192千赫到的AudioFormat(或它的助洗剂)将导致IllegalArgumentException从AudioFormat与传递一个配置192千赫<X <96 kHz采样率的AudioFormat成AudioTrack也将引发IllegalArgumentException.
到目前为止,我发现最令人困惑的是getNativeOutputSampleRate()AudioTrack中的方法实际上确实返回了正确的输出采样率(好吧,鉴于它直接从本机层运行,但不那么令人惊讶).
并且最重要的是,该方法setPlaybackRate()声称:
有效采样率范围是1 Hz到getNativeOutputSampleRate(int)返回值的两倍.
事实上,我确实尝试过,它有效吗?请考虑以下代码段:
int nativeRate = AudioTrack.getNativeOutputSampleRate(AudioManager.STREAM_MUSIC);
android.util.Log.i("UI", "Native stream rate: " + nativeRate + " Hz");
// Build audio attributes
AudioAttributes.Builder attribBuilder = new AudioAttributes.Builder();
attribBuilder.setContentType(AudioAttributes.CONTENT_TYPE_MUSIC);
attribBuilder.setUsage(AudioAttributes.USAGE_MEDIA); …Run Code Online (Sandbox Code Playgroud) 我需要播放多个音频文件,持续时间不同,如5到30秒.我想为右/左声道独立设置音量,也可以应用效果,如Reverb或Distortion.那么,我应该使用哪种API?
另外,我在AudioTrack API上找不到太多的文档.你知道我在哪里可以找到例子吗?谢谢.
我收到了这个AudioTrack警告
AUDIO_OUTPUT_FLAG_FAST denied by client
Run Code Online (Sandbox Code Playgroud)
在我的Android应用程序中的按钮我是子类.点击按钮时我可以听到咔嗒声,这有什么值得担心的吗?
注意:我没有收到此问题中的不匹配采样率消息:由于采样率不匹配,AudioTrack:AUDIO_OUTPUT_FLAG_FAST被客户拒绝
我目前有一个字节数组形式的PCM音频.格式是16位小端的签名.我想将它转换为Android上的一些可播放格式,最好是版本3.2或更高版本.有人建议如何做到这一点?我做了一些研究并尝试了下面的内容,但都没有成功.如果有人能提出更好的方法或指出我出错的地方,我们将不胜感激.
我尝试使用正确的音频设置创建AudioFormat,但Android不支持javax.sound.sampled库.
我也尝试将PCM数据写入wave文件,但是我遇到了所有必要的wav头信息.
我也尝试使用Android提供的AudioTrack类来播放PCM数据.但是,我似乎听不到任何声音.这是我的方法:
public void playback(){
try{
AudioTrack audioTrack = new AudioTrack(AudioManager.STREAM_VOICE_CALL, 8000, AudioFormat.CHANNEL_CONFIGURATION_MONO, AudioFormat.ENCODING_PCM_16BIT, 500000, AudioTrack.MODE_STATIC);
audioTrack.write(audio, 0, 500000);
} catch(Throwable t){
Log.d("Audio","Playback Failed");
}
}
Run Code Online (Sandbox Code Playgroud)
任何建议,将不胜感激.
在我的Android应用程序中,我想从智能手机的麦克风中获取一些音频并立即播放,像麦克风一样直播,没有延迟.我目前正在考虑使用AudioRecord和AudioTrack类(从我读过的内容),但我不太确定如何继续.
我查看了Stack Overflow上的其他一些问题,但他们并没有完全回答我想做的事情.大多数是2012年.
那么如何使用这些类同时输入和输出音频呢?
另外:我看了一下MediaRecorder API,但是根据我的阅读,需要你将音频保存到文件中,我不想这样做.可以通过tweek来满足我的要求吗?或者我最好只使用AudioRecord?
谢谢
编辑:
以下是我在@Pradip Pramanick建议的更新代码:
final Thread record = new Thread(new Runnable() {
@Override
public void run() {
while (!Thread.interrupted()) {
MediaRecorder microphone = new MediaRecorder();
microphone.setAudioSource(MediaRecorder.AudioSource.MIC);
microphone.setOutputFormat(MediaRecorder.OutputFormat.THREE_GPP);
microphone.setOutputFile(filename);
microphone.setAudioEncoder(MediaRecorder.AudioEncoder.AMR_NB);
try {
microphone.prepare();
} catch (IOException e) {
e.printStackTrace();
}
microphone.start();
}
}
});
final Thread play = new Thread(new Runnable() {
@Override
public void run() {
while (!Thread.interrupted()) {
player = new MediaPlayer();
try { …Run Code Online (Sandbox Code Playgroud) 我正在制作一个音乐播放器,我需要在不改变音高的情况下改变速度(音乐的播放速度).
我无法找到任何本机安卓类.我试过SoundPool,但它不适用于大型音乐文件,它似乎也不适用于许多设备.我也试过AudioTrack但又没有运气.
现在我正在尝试使用OpenSL ES来处理音乐的android NDK音频示例.现在我只想在此示例中添加设置回放速率功能.
任何人都可以告诉我如何在其中添加更改播放率功能?
我有一个功能,我想转换使用Androids AudioTrack而不是MediaPlayer,由于一些众所周知的错误MediaPlayer,例如循环轨道之间出现的小间隙.
我被推荐使用,AudioTrack但没有找到很多使用它的例子.我确实在SO上找到了一个关于AudioTrack并使用了一些代码来解决问题的问题:
public class TestActivity extends Activity implements Runnable {
Button playButton;
byte[] byteData = null;
int bufSize;
AudioTrack myAT = null;
Thread playThread = null;
@Override
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_test);
playButton = (Button) findViewById(R.id.testButton);
InputStream inputStream = getResources().openRawResource(R.raw.whitenoise_wav);
try {
byteData = new byte[ inputStream.available()];
} catch (IOException e) {
e.printStackTrace();
}
try {
inputStream.read(byteData);
inputStream.close();
} catch (FileNotFoundException e) {
e.printStackTrace();
} catch (IOException e) …Run Code Online (Sandbox Code Playgroud) 我创建了一个简单的应用程序,它生成一个给定频率的方波,并在STREAM模式下使用AudioTrack播放它(STREAM_MUSIC).一切似乎工作正常,声音播放正常,但是当流完成后,我在日志中收到消息:
W/AudioTrack(7579):gainBuffer()轨道0x14c228禁用,重启......
即使在调用stop()函数后,我仍然会得到这些.我相信我根据AudioTrack所需的最小尺寸(在我的情况下为6x1024)正确设置了AudioTrack缓冲区大小.我用1024个短裤的较小缓冲区喂它.
我可以得到这些,我应该这样离开吗?
我通过套接字从C服务器传输麦克风输入.我知道流是有效的,因为它与C客户端有关,我在Android客户端上获得了正确的值.
我正在播放1024 flatarray.一个浮点数是4个字节.所以我得到了一个每帧4096字节的传入流.我从这个字节中获取浮点数,我知道这些浮点数是我发送的,所以该部分应该可以工作.
现在,我希望使用AudioTrack将该流直接传输到手机扬声器.我试着输入我直接收到的字节:只是噪音.我试图将它强制转换为字节数组,仍然是相同的.我试图把那个浮点数简化(因为AudioTrack需要字节或短).我可能得到的东西可能是我的麦克风输入(敲门),但非常沙哑,而且极其迟钝.我会理解帧之间是否存在延迟,但我甚至无法获得一个清晰的声音.然而,我可以清楚地输出一个我本地产生的声音,然后放入那个短小的声音.现在我想知道我的代码中是否有一些问题你可以看到,因为我没有看到它们.
我正在做的是:我在一个字节数组中放入4个字节.我把浮子拿出来了.一旦我在我的浮动数组中得到一个帧(我用bool控制它,不好,但它应该工作)我把它放在我的短片中,让audiotrack播放它.这种双重演员可能会很慢,但我这样做是因为它最接近我实际的输入.
编辑: 我通过比较浮点数来检查结束,它们具有介于-1和1之间的正确值,并且与我发送的值相同.由于我在转换为浮动时不改变endianess,我不明白为什么直接将4096字节数组转发到AudioTrack也不起作用.多线程可能有问题,但我不知道它可能是什么.
编辑2: 我发现了一个小问题 - 我在1023处重置了j.但是那个丢失的浮点数应该不是问题所在.除了那之外我做的是将来自套接字的流的方法放在另一个线程中,而不是在异步任务中调用它.这使它工作,我现在能够理解麦克风的声音.质量仍然很差 - 代码中可能有这样的原因吗?我也有大约10秒的延迟.只有大约半秒钟是由WLAN引起的,所以我想知道它是否可能是代码故障.任何进一步的想法表示赞赏
编辑3:我玩了代码并在评论中实现了一些greenapps的想法.使用新的线程结构,我面临着没有任何声音的问题.像一样.我不知道怎么可能,所以我换回来了.我尝试使线程更轻量级的其他东西没有任何影响.我有一个延迟,我的质量很差(我可以识别敲门声,但我无法理解声音).我认为我的转换可能有问题,所以我把我从套接字收到的字节直接放在AudioTrack中 - 只有丑陋的脉冲静态噪音.现在我更加困惑,因为这个确切的流仍然适用于C客户端.如果我找到解决方案,我会报告,但仍然欢迎任何帮助.
编辑4 我应该添加,我可以从另一个Android应用程序播放麦克风输入,我直接将该输入作为字节发送(我将排除浮动播放的东西,并将我直接接收的字节放入我的播放器代码中的audioTrack).
它也发生在我身上,这可能是一个问题,由C服务器流式传输的所述floatarray来自64位机器而手机是32位.这可能是一个问题,即使我只是将浮动数据传输为4个字节?或者,我的另一个想法:我收到的字节的基础数字格式是浮点数.AudioTrack期望什么格式?即使只放入字节 - 我是否需要将该浮点数转换为int并将其转换回字节或其他内容?
新代码:
public class PCMSocket {
AudioTrack audioTrack;
boolean doStop = false;
int musicLength = 4096;
byte[] music;
Socket socket;
short[] buffer = new short[4096];
float[] fmusic = new float[1024];
WriteToAudio writeThread;
ReadFromSocket readThread;
public PCMSocket()
{
}
public void start()
{
doStop = false;
readThread = new ReadFromSocket();
readThread.start();
}
public class ReadFromSocket extends Thread
{
public void …Run Code Online (Sandbox Code Playgroud) android ×10
audiotrack ×10
audio ×4
java ×2
audiorecord ×1
bytearray ×1
exoplayer ×1
media-player ×1
microphone ×1
mp3 ×1
multimedia ×1
pcm ×1
sample-rate ×1
sockets ×1
soundpool ×1
streaming ×1