jfr*_*ahn 2 ios scenekit swift arkit
我有一个非常简单的ARKit演示应用程序,其中将一些对象放入带有标签的视图中。我目前正在使用此snapshot()功能,ARSCNView以查看所有输入的对象的视频输入的屏幕截图。
但是,我只想获取原始相机输入的UIImage,在其上没有任何额外的渲染对象,最好具有与屏幕上显示的分辨率相同的分辨率。我不确定做到这一点的最佳方法是什么。有没有办法剥离渲染的内容?我应该直接扎入相机提要吗?
当前看起来像这样:
class ViewController: UIViewController, ARSCNViewDelegate, ARSessionDelegate {
@IBOutlet weak var sceneView: ARSCNView!
var nodeModel:SCNNode!
...
override func viewDidLoad() {
let scene = SCNScene()
sceneView.scene = scene
let modelScene = SCNScene(named: ...
nodeModel = modelScene?.rootNode.childNode(...
...
self.view.addSubview( ...
}
...some ARKit stuff...some model stuff...
}
extension ViewController {
func renderer(_ renderer: SCNSceneRenderer, didRenderScene scene: SCNScene, atTime time: TimeInterval) {
if self.captureButton.capturing && time > self.captureTime {
captureScreenshot(scene)
self.captureTime = time + TimeInterval(0.1)
}
}
func captureScreenshot(_ scene: SCNScene){
DispatchQueue.main.async() {
let screenshot = self.sceneView.snapshot()
UIImageWriteToSavedPhotosAlbum(screenshot, nil, nil, nil)
}
}
}
Run Code Online (Sandbox Code Playgroud)
实现可选ARSessionDelegate方法:
func session(_ session: ARSession, didUpdate frame: ARFrame)
Run Code Online (Sandbox Code Playgroud)
ARFrame具有一个属性captureImage,CVPixelBuffer您可以将其转换为UIImage类似这样的属性:
import VideoToolbox
extension UIImage {
public convenience init?(pixelBuffer: CVPixelBuffer) {
var cgImage: CGImage?
VTCreateCGImageFromCVPixelBuffer(pixelBuffer, nil, &cgImage)
guard let cgImage = cgImage else { return nil }
self.init(cgImage: cgImage)
}
}
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
594 次 |
| 最近记录: |