我目前有一个摄像机设置,AVCaptureVideoDataOutput其样本缓冲区委托实现如下:
- (void)captureOutput:(AVCaptureOutput *)captureOutput
didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer
fromConnection:(AVCaptureConnection *)connection
{
NSArray *detectedFaces = [self detectFacesFromSampleBuffer:sampleBuffer];
[self animateViewsForFaces:detectedFaces];
}
Run Code Online (Sandbox Code Playgroud)
处理样本缓冲区,如果检测到任何面部,它们的边界将显示为AVCaptureVideoPreviewLayer显示实时视频输出(面部上的矩形)的视图.视图是动画的,以便它们在面部检测之间平滑移动.是否有可能以某种方式记录预览图层中显示的内容并将其与UIView覆盖它的动画s 合并,最终结果是视频文件?
#import <Foundation/Foundation.h>
@interface FaceObject : NSObject
@property (strong, nonatomic) UIImage *image;
@end
Run Code Online (Sandbox Code Playgroud)
Xcode中给出了一个错误说"未知类型名称'的UIImage’除非我进口UIKit.h,但在Xcode 5我会还没有得到这个错误,并没有需要进口的UIKit - 是对此有任何的解释我做什么?错了?谢谢!
是否可以使用没有标记输入(或输出)节点的Tensorflow C++ API执行图形?据我所知,在训练我的模型时(在python中使用skflow,我后来将其保存为二进制protobuf),我没有标记输入/输出节点,但我能够恢复模型并毫无困难地进行预测在Python中.当使用C++ API执行图形时,输入向量是字符串和张量对,其中我假设字符串是指输入节点的标签.来自文档:
Run Code Online (Sandbox Code Playgroud)Session::Run(const std::vector< std::pair< string, Tensor > > &inputs, const std::vector< string > &output_tensor_names, const std::vector< string > &target_node_names, std::vector< Tensor > *outputs)=0使用提供的输入张量运行图形,并填充output_tensor_names中指定的端点的输出.运行但不返回target_node_names中节点的Tensors.
有没有办法在不知道输入/输出节点标签的情况下执行图形?也许有一种方法可以在Python中加载图形,给出节点标签,然后再将其保存为protobuf?理想情况下,我想传入一个应用于输入节点的向量,而不必担心任何标签.
objective-c ×2
avfoundation ×1
c++ ×1
import ×1
ios ×1
python ×1
skflow ×1
tensorflow ×1
uiimage ×1
xcode ×1