小编Sam*_*ing的帖子

来自 NSData 的实时照片

我将实时照片存储在服务器上,有两个单独的文件,一个是 JPG,另一个是 MOV 文件。当我检索它们时,我只剩下 NSData,这就是我的问题出现的地方,我不知道如何PHLivePhoto从这些数据中创建一个。

如果文件捆绑在我的项目中,这是我创建 PHLivePhoto 的方法:

let imgURL = NSBundle.mainBundle().URLForResource("IMG_0001", withExtension: "JPG")!
let movURL = NSBundle.mainBundle().URLForResource("IMG_0001", withExtension: "mov")!

func makeLivePhotoFromItems(imageURL: NSURL, videoURL: NSURL, previewImage: UIImage, completion: (livePhoto: PHLivePhoto) -> Void) {
    PHLivePhoto.requestLivePhotoWithResourceFileURLs([imageURL, videoURL], placeholderImage: previewImage, targetSize: CGSizeZero, contentMode: PHImageContentMode.AspectFit) {
        (livePhoto, infoDict) -> Void in
        // for debugging: print(infoDict)
        if let lp = livePhoto {
            completion(livePhoto: lp)
        }
    }
}

 //  Credit :
   http://stackoverflow.com/questions/33990830/working-with-live-photos-in-playground
Run Code Online (Sandbox Code Playgroud)

这给了我一个 PHLivePhoto。我应该采取什么方法向用户显示照片?

ios swift phlivephoto apple-live-photos

6
推荐指数
0
解决办法
891
查看次数

CIDetector透视和Swift裁剪

我已经CIDetector在我的应用程序中实现了一个检测图像上的矩形,但现在我如何使用返回CGPoint的图像来裁剪图像,以便我可以显示它?

从视角我尝试应用CIPerspectiveCorrection过滤器,但无法使其工作.

我已经四处寻找并发现了一些线索,但在Swift中找不到解决方案.

如何使用CIDetector(检测到的矩形)提供的数据来修复透视并裁剪图像?

对于那些可能不熟悉CIDetectorTypeRectangle返回内容的人:它返回4 CGPoint的bottomLeft,bottomRight,topLeft,topRight.

uiimage swift cidetector

5
推荐指数
1
解决办法
1558
查看次数

检测 SceneKit 中对象子节点的触摸

基本上这个问题是针对 SceneKit 的。

我有一个父节点,里面有一些较小的节点,稍后父节点变得透明(父节点的漫反射材质不透明度设置为 0),之后我想获取在对象内部点击的节点,如何我应该这样做吗?默认命中测试返回父节点,并且由于对象内部有一些较小的节点,因此我需要被点击的精确节点。

scenekit swift

1
推荐指数
1
解决办法
1542
查看次数