从哪里开始iOS音频合成器?

Dav*_*ers 30 audio synthesizer sound-synthesis ios

我知道这是一个非常广泛的主题,但我一直在用演示和我自己的测试来挣扎,我不确定我是否正确地攻击了这个问题.所以,我应该开始的任何线索将不胜感激.

目标是让应用程序根据用户的设置生成一些合成声音.(这不是唯一的应用程序功能,我不是在这里重新创建Korg,但是synth是其中的一部分.)用户可以设置典型的合成器设置,如波形,混响等,然后在音符播放时选择,可能使用俯仰和速度修正器.

我用音频单元和RemoteIO玩了一下,但只是勉强理解我在做什么.在我走到那个兔子洞之前,我想知道我是否在正确的球场.我知道音频合成器将是低级别的,但我希望可能有一些我可以使用的更高级别的库.

如果您有任何关于从哪里开始的指示,以及我应该阅读的iOS技术,请告诉我.

谢谢!

编辑:让我更好地总结一下问题.

是否已经为iOS构建了任何合成库?(商业或开源 - 我没有找到任何搜索,但也许我错过了.)

是否有更高级别的API可以帮助生成缓冲区更容易?

假设我已经可以生成缓冲区了,是否有更好/更简单的方法将这些缓冲区提交到iOS音频设备而不是RemoteIO Audio Unit?

Ori*_*eto 9

这是一个非常好的问题.我有时会问自己同样的事情,我总是最终使用斯坦福大学的MoMu工具包.这个库提供了一个很好的回调函数,连接到AudioUnits/AudioToolbox(不确定),所以你关心的是设置采样率,缓冲区大小和音频样本的位深度,你可以很容易地合成/在回调函数中处理任何你喜欢的东西.

我还推荐了适用于iOSSynthesis ToolKit(STK),也是斯坦福的Ge Wang发布的.非常酷的东西来合成/处理音频.

每次Apple发布新的iOS版本时,我都会查看新文档,以便找到更好(或更简单)的方法来合成音频,但总是没有运气.

编辑:我想添加一个指向AudioGraph源代码的链接:https://github.com/tkzic/audiograph这是一个非常有趣的应用程序,展示了由Tom Zicarelli制作的AudioUnits 的潜力.代码非常容易理解,这是一个了解这一点的好方法 - 有些人会说 - 在iOS中处理低级音频的复杂过程.


Dan*_*ieu 6

Swift&Objective C

有一个很棒的开源项目,有关Objective-C和Swift的视频和教程的详细记录.

AudioKit.io