标签: coreml

按需提供多个动态加载的CoreML模型

我正在开发一个iOS 11应用程序来利用新的CoreML框架.我们的想法是使用不同的.mlmodel文件来处理视频输入,并为用户提供选择所需模型以对其进行分类的能力.

我这里有两个问题:

  • 无法为每个xcode项目添加多个模型.xcode停止生成强类型模型,我无法实例化它们
  • 无法.mlmodel动态加载(假设我按需下载).有没有办法.mlmodel动态加载?

xcode machine-learning ios ios11 coreml

2
推荐指数
1
解决办法
1206
查看次数

为.mamrin.iOS编译.mlmodel到.mlmodelc?

我是iOS开发的新手,我想在我的Xamarin.iOS应用程序中使用CoreML,但我如何使用模型?developer.xamarin中的所有示例都使用.mlmodelc,但我下载了.mlmodel.我怎样才能转换为.mlmodelc?

machine-learning xamarin.ios ios xamarin coreml

2
推荐指数
1
解决办法
966
查看次数

Core ML 和 Turi Create 使用哪些模型?

我正在学习苹果机器学习技术的课程。我刚刚看到这一段:

Turi Create 和 Create ML 是特定于任务的,而不是特定于模型的。这意味着您指定要解决的问题类型,而不是选择要使用的模型类型。您选择与您想要解决的问题类型相匹配的任务,然后 Turi Create分析您的数据并为该作业选择正确的模型。

我的问题是,当您选择二值图像分类等任务时,Create ML / Turi Create 会为您选择合适的模型,它有哪些模型可供使用。市场上不是有很多型号可以做到这一点吗?苹果只是选择了他们认为最好的那个吗?

谢谢!

coreml turi-create

2
推荐指数
1
解决办法
684
查看次数

快速从 .npy 转换为 MLMultiArray 以进行 CoreML 预测

我已将 PyTorch 模型导出到 CoreML,并希望快速进行推理。我将输入数据作为 2D float32 numpy ndarray 存储在磁盘上.npy,并且需要快速加载到 aMLMultiArray中。有没有方便的方法来做到这一点?

numpy swift pytorch coreml

2
推荐指数
1
解决办法
497
查看次数

如何保存 scikit-learn k-means 聚类模型?

目前 K-means CLustring 代码在方法中是这样写的:

def predict(image_path):
image = cv2.imread(image_path)
image = image.reshape((image.shape[0] * image.shape[1], 3))
clt = KMeans(n_clusters = 3,  random_state=2, n_jobs=1)
clt.fit(image)
Run Code Online (Sandbox Code Playgroud)

如何将其保存到模型中,以便将其转换为 Core-ML 并在我的应用程序中使用它?

python cluster-analysis machine-learning scikit-learn coreml

2
推荐指数
1
解决办法
5305
查看次数

“使用未解析的标识符”与CoreMLModel

对于某些背景:我正在使用Swift 4和Xcode 9(测试版)。但是,我正在尝试在我的应用程序中实现以下代码行(已将其放置在ViewController类的IBAction函数中):

let coreMLModel = testmodel2().model
Run Code Online (Sandbox Code Playgroud)

我收到一条错误消息:“使用未解决的标识符'testmodel2'”。我已经阅读了其他一些类似的问题,并确保ViewController和testmodel2.mlmodel文件具有相同的目标。似乎没有其他工作。

xcode ios swift coreml

1
推荐指数
1
解决办法
2754
查看次数

如何在iOS中运行Tensorflow Object Detection API模型?

我刚刚训练了一个结果令人满意的模型,我有了frozen_inference_graph.pb.我将如何在iOS上运行此操作?如果有帮助,它在SSD Mobilenet V1上接受过培训.最理想的是我想用GPU运行它(我知道在iOS上不能做到张量流API),但是首先在CPU上运行它会很棒.

neural-network ios tensorflow coreml

1
推荐指数
1
解决办法
1218
查看次数

如何在CoreML中访问MLMultiArray中的元素

我已经初始化MLMultiArray使用initWithDataPointer,如下面的代码所示:

float count = 512 * 384;
  double *tempBuffer = malloc(count * sizeof(double));
  NSError *error = NULL;
  NSArray *shape = [NSArray arrayWithObjects:[NSNumber numberWithInt:1],[NSNumber numberWithInt:512],[NSNumber numberWithInt:384], nil];
  NSArray *stride = [NSArray arrayWithObjects:[NSNumber numberWithInt:1],[NSNumber numberWithInt:1],[NSNumber numberWithInt:1], nil];

  MLMultiArray *mlMultiArray = [[MLMultiArray alloc] initWithDataPointer:tempBuffer
                                                                   shape:shape
                                                                dataType:MLMultiArrayDataTypeDouble
                                                                 strides:stride
                                                             deallocator:^(void * _Nonnull bytes) { free(bytes); }
                                                                   error:&error];
Run Code Online (Sandbox Code Playgroud)

根据MLMultiArray链接中提到的文档,subscript需要使用它来访问元素.

如果我按照显示的方式访问元素,是否正确?

NSNumber *val = [mlMultiArray objectForKeyedSubscript:[NSArray arrayWithObjects:[NSNumber numberWithInt:1],[NSNumber numberWithInt:1],[NSNumber numberWithInt:1], nil]];
Run Code Online (Sandbox Code Playgroud)

machine-learning objective-c multidimensional-array ios coreml

1
推荐指数
1
解决办法
2263
查看次数

iOS CoreML mlmodel文件自动生成swift版本的模型类文件

我正在将CoreML用于我当前的objc项目.通常,.mlmodel文件会自动为我生成一个.h文件,以便在我的viewcontroller中导入模型类.但是如果我在项目中导入一些swift文件,则自动生成的.h文件会更改为swift版本,这在项目中并不明确.我不能在objc项目中使用它.如何在objc和swift混合项目中生成.mlmodel文件自动生成.h模型类?

ios swift coreml

1
推荐指数
1
解决办法
884
查看次数

CoreML模型未定义符号错误

我创建了一个 coreML 模型,当我尝试在 Objective-C 项目中使用该模型时,出现以下错误:

Undefined symbols for architecture x86_64: "_OBJC_CLASS_$_MLFeatureValue", referenced from: objc-class-ref in logistic_model_8000.o "_OBJC_CLASS_$_MLModel", referenced from: objc-class-ref in logistic_model_8000.o ld: symbol(s) not found for architecture x86_64 clang: error: linker command failed with exit code 1 (use -v to see invocation)

PS:我不确定可以添加到问题中的其他细节可能有助于回答它。如果您需要更多详细信息,请在评论中提出。

xcode objective-c ios coreml

1
推荐指数
1
解决办法
1194
查看次数

使用Vision框架跟踪本地视频中的面部

我正在尝试使用Vision框架检测本地录制的视频中的人脸。提供的大多数样本都是在实时凸轮视频中检测面部。

  • 如何使用Vision / CoreML框架在本地视频中进行人脸检测并在运行时在检测到的人脸中放置一个矩形?

cocoa-touch ios ios11 apple-vision coreml

0
推荐指数
1
解决办法
1449
查看次数

是否可以使用CoreML和ARKit获得World对象的“ SCNVector3”位置?

我正在研究一种基于AR的解决方案,其中使用SceneKit和ARKit渲染了一些3D模型。我还集成了CoreML以识别对象并在场景中渲染相应的3D对象。

但是现在,我一检测到对象就将其呈现在屏幕中央(仅适用于我拥有的对象列表)。是否可以获取现实世界对象的位置,以便可以在对象上方显示一些叠加层?

也就是说,如果我扫描了水瓶,则应该能够找到水瓶的位置。它可能在水瓶中的任何地方,但不应放在水瓶外面。使用SceneKit是否可能?

augmented-reality scenekit ios11 arkit coreml

0
推荐指数
1
解决办法
574
查看次数

在后台运行coreml时出错:计算NN输出错误时出错

我正在运行来自iPhone 6上来自keras的mlmodel。预测通常会因错误而失败Error computing NN outputs。有谁知道可能是什么原因,如果我有什么办法可以解决?

do {
    return try model.prediction(input1: input)
} catch let err {
    fatalError(err.localizedDescription) // Error computing NN outputs error
}
Run Code Online (Sandbox Code Playgroud)

模型输入和输出

编辑:我尝试了苹果的示例项目,并且该项目在后台运行,因此看来它特定于我们的项目或模型类型。

swift ios11 coreml

0
推荐指数
2
解决办法
809
查看次数