我正在尝试使用AVAudioPlayer,AVAudioSession和AudioSessionSetProperty将音频输出到蓝牙耳机(而不是A2DP).
似乎有选择蓝牙耳机作为输入的功能(kAudioSessionProperty_OverrideCategoryEnableBluetoothInput),但没有相应的设置输出.这可以在语音信箱应用程序中完成,您可以在其中选择耳机,听筒扬声器或扬声器电话.我已经尝试过SessionCategories和AudioSession属性的各种组合,但我似乎无法找到一种有效的方法.
我敢肯定有人已经想到这一点,小心分享一个例子?
我正在为多轨录音机设计一个简单的概念证明.
明显的出发点是从文件A.caf播放到耳机,同时将麦克风输入录制到文件B.caf中
这个问题 - 同时录制和播放音频 - 指出我可以在三个级别工作:
工作的最佳水平是什么?显然,通用答案是在完成工作的最高级别工作,这将是AVFoundation.
但是,由于延迟问题(他在文件之间有0.3秒的延迟),我正在接受这项工作,所以也许我需要在较低级别工作以避免这些问题?
此外,跳板有哪些源代码?我一直在看SpeakHere示例(http://developer.apple.com/library/ios/#samplecode/SpeakHere/Introduction/Intro.html).如果我找不到更简单的东西,我会用它.
但是,任何人都可以建议更简单/其他吗?如果我能避免它,我宁愿不使用C++代码.
有人知道一些使用AVFoundation的公共代码吗?
编辑:AVFoundation示例:http ://www.iphoneam.com/blog/index.php?title=using-the-iphone-to-record-audio-a-guide&more=1&c=1&tb=1&pb =1
编辑(2):这里看起来好多了:http://www.switchonthecode.com/tutorials/create-a-basic-iphone-audio-player-with-av-foundation-framework
ios ×2
audio ×1
bluetooth ×1
core-audio ×1
iphone ×1
objective-c ×1
playback ×1
record ×1
simultaneous ×1