我将实时照片存储在服务器上,有两个单独的文件,一个是 JPG,另一个是 MOV 文件。当我检索它们时,我只剩下 NSData,这就是我的问题出现的地方,我不知道如何PHLivePhoto从这些数据中创建一个。
如果文件捆绑在我的项目中,这是我创建 PHLivePhoto 的方法:
let imgURL = NSBundle.mainBundle().URLForResource("IMG_0001", withExtension: "JPG")!
let movURL = NSBundle.mainBundle().URLForResource("IMG_0001", withExtension: "mov")!
func makeLivePhotoFromItems(imageURL: NSURL, videoURL: NSURL, previewImage: UIImage, completion: (livePhoto: PHLivePhoto) -> Void) {
PHLivePhoto.requestLivePhotoWithResourceFileURLs([imageURL, videoURL], placeholderImage: previewImage, targetSize: CGSizeZero, contentMode: PHImageContentMode.AspectFit) {
(livePhoto, infoDict) -> Void in
// for debugging: print(infoDict)
if let lp = livePhoto {
completion(livePhoto: lp)
}
}
}
// Credit :
http://stackoverflow.com/questions/33990830/working-with-live-photos-in-playground
Run Code Online (Sandbox Code Playgroud)
这给了我一个 PHLivePhoto。我应该采取什么方法向用户显示照片?
我已经CIDetector在我的应用程序中实现了一个检测图像上的矩形,但现在我如何使用返回CGPoint的图像来裁剪图像,以便我可以显示它?
从视角我尝试应用CIPerspectiveCorrection过滤器,但无法使其工作.
我已经四处寻找并发现了一些线索,但在Swift中找不到解决方案.
如何使用CIDetector(检测到的矩形)提供的数据来修复透视并裁剪图像?
对于那些可能不熟悉CIDetectorTypeRectangle返回内容的人:它返回4 CGPoint的bottomLeft,bottomRight,topLeft,topRight.
基本上这个问题是针对 SceneKit 的。
我有一个父节点,里面有一些较小的节点,稍后父节点变得透明(父节点的漫反射材质不透明度设置为 0),之后我想获取在对象内部点击的节点,如何我应该这样做吗?默认命中测试返回父节点,并且由于对象内部有一些较小的节点,因此我需要被点击的精确节点。