Jas*_*our 5 avfoundation ios avcapturedevice swift haptic-feedback
我正在尝试在后台有一个视频/相机视图,同时我还允许在我的应用程序中为各种操作提供触觉反馈,但似乎 AVFoundation 对我所做的任何涉及触觉调用的调用都不太友好:
if #available(iOS 10.0, *) {
let generator = UIImpactFeedbackGenerator(style: .light)
generator.prepare()
generator.impactOccurred()
// More:
let feedbackGenerator = UISelectionFeedbackGenerator()
feedbackGenerator.selectionChanged()
}
Run Code Online (Sandbox Code Playgroud)
只要 AVFoundation 的内容被注释掉,触觉反馈就可以很好地工作,并且符合预期。有任何想法吗?
使用:
captureSession = AVCaptureSession()
Run Code Online (Sandbox Code Playgroud)
和:
previewLayer = AVCaptureVideoPreviewLayer(session: captureSession)
Run Code Online (Sandbox Code Playgroud)
从 iOS 13 开始,您可以setAllowHapticsAndSystemSoundsDuringRecording(_:)设置AVAudioSession:
do {
try AVAudioSession.sharedInstance().setAllowHapticsAndSystemSoundsDuringRecording(true)
} catch {
print(error)
}
Run Code Online (Sandbox Code Playgroud)
然后你可以使用:
let generator = UIImpactFeedbackGenerator(style: .light)
generator.prepare()
generator.impactOccurred()
Run Code Online (Sandbox Code Playgroud)
我假设如果您使用 AVCaptureSession 那么您可能有这样的代码:
do {
let audioDevice = AVCaptureDevice.default(for: .audio)
let audioDeviceInput = try AVCaptureDeviceInput(device: audioDevice!)
if captureSession.canAddInput(audioDeviceInput) {
captureSession.addInput(audioDeviceInput)
} else {
print("Could not add audio device input to the session")
}
} catch {
print("Could not create audio device input: \(error)")
}
Run Code Online (Sandbox Code Playgroud)
因此,音频输入与触觉引擎的配合效果不佳。在播放触觉之前,您必须从捕获会话中删除音频输入,然后将其添加回来。
| 归档时间: |
|
| 查看次数: |
1109 次 |
| 最近记录: |