我在iOS 7中有一个使用语音合成的代码,一切顺利.为了定义我的AVSpeechUtterance速度,我使用了以下公式
float speakSpeedRate = (AVSpeechUtteranceMinimumSpeechRate + AVSpeechUtteranceDefaultSpeechRate)*0.5;
Run Code Online (Sandbox Code Playgroud)
但似乎,至少在我的iPhone 5S上,在iOS 8下,AVSpeechUtteranceDefaultSpeechRate比在iOS 7上快得多.
有谁经历过这个?
编辑:我通过Apple开发论坛,似乎其他人遇到了这个bug,但它可能依赖于其他参数,如语言...
我想使用 iOS 7 新的语音合成 API,并且我的应用程序已本地化为法语和英语。
为此,必须本地化两件事:
语音文本:我把它放在普通localizable.string文件中,并使用NSLocalizedString宏在代码中检索它。
语音语言:AVSpeechSynthesisVoice必须选择相应的语言。
类实例化方法是AVSpeechSynthesisVoice voiceWithLanguage:(NSString *)lang. 我目前使用[NSLocale currentLocale].localeIdentifier作为此方法的参数。
问题:如果用户的设备语言是葡萄牙语,[NSLocale currentLocale]选择葡萄牙语发音,而文本解析NSLocalizedString为英语。
我如何知道当前读取的是哪个语言环境NSLocalizedString?
我正在进行一些静态图像处理,而GPUImage是一个非常棒的框架(谢谢Brad Larson!).
我明白那个 :
GPUVideoCamera),RGB - > YUV可以硬编码到片段着色器(例如:GPUImageChromaKeyFilter)我有很多图像处理步骤,一些可以基于YUV,另一些基于RGB.基本上,我想混合RGB和YUV滤镜,所以我的一般问题是:
这种连续转换的成本/信息损失是多少,您会推荐任何设计吗?
谢谢!
(PS:iPhone4 YUV-> RGB转换和AVCaptureStillImageOutput像素格式有什么问题?)