AVFoundation 的触觉反馈效果不佳?(UIImpactFeedbackGenerator 等)

Jas*_*our 5 avfoundation ios avcapturedevice swift haptic-feedback

我正在尝试在后台有一个视频/相机视图,同时我还允许在我的应用程序中为各种操作提供触觉反馈,但似乎 AVFoundation 对我所做的任何涉及触觉调用的调用都不太友好:

if #available(iOS 10.0, *) {
    let generator = UIImpactFeedbackGenerator(style: .light)
    generator.prepare()
    generator.impactOccurred()
    
    // More:

    let feedbackGenerator  = UISelectionFeedbackGenerator()
    feedbackGenerator.selectionChanged()
}
Run Code Online (Sandbox Code Playgroud)

只要 AVFoundation 的内容被注释掉,触觉反馈就可以很好地工作,并且符合预期。有任何想法吗?

使用:

captureSession = AVCaptureSession()
Run Code Online (Sandbox Code Playgroud)

和:

previewLayer = AVCaptureVideoPreviewLayer(session: captureSession)
Run Code Online (Sandbox Code Playgroud)

Vuk*_*vić 5

从 iOS 13 开始,您可以setAllowHapticsAndSystemSoundsDuringRecording(_:)设置AVAudioSession

do {
    try AVAudioSession.sharedInstance().setAllowHapticsAndSystemSoundsDuringRecording(true)
} catch {
    print(error)
}
Run Code Online (Sandbox Code Playgroud)

然后你可以使用:

let generator = UIImpactFeedbackGenerator(style: .light)
generator.prepare()
generator.impactOccurred()
Run Code Online (Sandbox Code Playgroud)


Max*_*lov 2

我假设如果您使用 AVCaptureSession 那么您可能有这样的代码:

do {
    let audioDevice = AVCaptureDevice.default(for: .audio)
    let audioDeviceInput = try AVCaptureDeviceInput(device: audioDevice!)

    if captureSession.canAddInput(audioDeviceInput) {
        captureSession.addInput(audioDeviceInput)
    } else {
        print("Could not add audio device input to the session")
    }
} catch {
    print("Could not create audio device input: \(error)")
}
Run Code Online (Sandbox Code Playgroud)

因此,音频输入与触觉引擎的配合效果不佳。在播放触觉之前,您必须从捕获会话中删除音频输入,然后将其添加回来。