我正在开发一个iOS 11应用程序来利用新的CoreML框架.我们的想法是使用不同的.mlmodel文件来处理视频输入,并为用户提供选择所需模型以对其进行分类的能力.
我这里有两个问题:
.mlmodel动态加载(假设我按需下载).有没有办法.mlmodel动态加载?我是iOS开发的新手,我想在我的Xamarin.iOS应用程序中使用CoreML,但我如何使用模型?developer.xamarin中的所有示例都使用.mlmodelc,但我下载了.mlmodel.我怎样才能转换为.mlmodelc?
我正在学习苹果机器学习技术的课程。我刚刚看到这一段:
Turi Create 和 Create ML 是特定于任务的,而不是特定于模型的。这意味着您指定要解决的问题类型,而不是选择要使用的模型类型。您选择与您想要解决的问题类型相匹配的任务,然后 Turi Create分析您的数据并为该作业选择正确的模型。
我的问题是,当您选择二值图像分类等任务时,Create ML / Turi Create 会为您选择合适的模型,它有哪些模型可供使用。市场上不是有很多型号可以做到这一点吗?苹果只是选择了他们认为最好的那个吗?
谢谢!
我已将 PyTorch 模型导出到 CoreML,并希望快速进行推理。我将输入数据作为 2D float32 numpy ndarray 存储在磁盘上.npy,并且需要快速加载到 aMLMultiArray中。有没有方便的方法来做到这一点?
目前 K-means CLustring 代码在方法中是这样写的:
def predict(image_path):
image = cv2.imread(image_path)
image = image.reshape((image.shape[0] * image.shape[1], 3))
clt = KMeans(n_clusters = 3, random_state=2, n_jobs=1)
clt.fit(image)
Run Code Online (Sandbox Code Playgroud)
如何将其保存到模型中,以便将其转换为 Core-ML 并在我的应用程序中使用它?
python cluster-analysis machine-learning scikit-learn coreml
对于某些背景:我正在使用Swift 4和Xcode 9(测试版)。但是,我正在尝试在我的应用程序中实现以下代码行(已将其放置在ViewController类的IBAction函数中):
let coreMLModel = testmodel2().model
Run Code Online (Sandbox Code Playgroud)
我收到一条错误消息:“使用未解决的标识符'testmodel2'”。我已经阅读了其他一些类似的问题,并确保ViewController和testmodel2.mlmodel文件具有相同的目标。似乎没有其他工作。
我刚刚训练了一个结果令人满意的模型,我有了frozen_inference_graph.pb.我将如何在iOS上运行此操作?如果有帮助,它在SSD Mobilenet V1上接受过培训.最理想的是我想用GPU运行它(我知道在iOS上不能做到张量流API),但是首先在CPU上运行它会很棒.
我已经初始化MLMultiArray使用initWithDataPointer,如下面的代码所示:
float count = 512 * 384;
double *tempBuffer = malloc(count * sizeof(double));
NSError *error = NULL;
NSArray *shape = [NSArray arrayWithObjects:[NSNumber numberWithInt:1],[NSNumber numberWithInt:512],[NSNumber numberWithInt:384], nil];
NSArray *stride = [NSArray arrayWithObjects:[NSNumber numberWithInt:1],[NSNumber numberWithInt:1],[NSNumber numberWithInt:1], nil];
MLMultiArray *mlMultiArray = [[MLMultiArray alloc] initWithDataPointer:tempBuffer
shape:shape
dataType:MLMultiArrayDataTypeDouble
strides:stride
deallocator:^(void * _Nonnull bytes) { free(bytes); }
error:&error];
Run Code Online (Sandbox Code Playgroud)
根据MLMultiArray此链接中提到的文档,subscript需要使用它来访问元素.
如果我按照显示的方式访问元素,是否正确?
NSNumber *val = [mlMultiArray objectForKeyedSubscript:[NSArray arrayWithObjects:[NSNumber numberWithInt:1],[NSNumber numberWithInt:1],[NSNumber numberWithInt:1], nil]];
Run Code Online (Sandbox Code Playgroud) machine-learning objective-c multidimensional-array ios coreml
我正在将CoreML用于我当前的objc项目.通常,.mlmodel文件会自动为我生成一个.h文件,以便在我的viewcontroller中导入模型类.但是如果我在项目中导入一些swift文件,则自动生成的.h文件会更改为swift版本,这在项目中并不明确.我不能在objc项目中使用它.如何在objc和swift混合项目中生成.mlmodel文件自动生成.h模型类?
我创建了一个 coreML 模型,当我尝试在 Objective-C 项目中使用该模型时,出现以下错误:
Undefined symbols for architecture x86_64:
"_OBJC_CLASS_$_MLFeatureValue", referenced from:
objc-class-ref in logistic_model_8000.o
"_OBJC_CLASS_$_MLModel", referenced from:
objc-class-ref in logistic_model_8000.o
ld: symbol(s) not found for architecture x86_64
clang: error: linker command failed with exit code 1 (use -v to see invocation)
PS:我不确定可以添加到问题中的其他细节可能有助于回答它。如果您需要更多详细信息,请在评论中提出。
我正在尝试使用Vision框架检测本地录制的视频中的人脸。提供的大多数样本都是在实时凸轮视频中检测面部。
我正在研究一种基于AR的解决方案,其中使用SceneKit和ARKit渲染了一些3D模型。我还集成了CoreML以识别对象并在场景中渲染相应的3D对象。
但是现在,我一检测到对象就将其呈现在屏幕中央(仅适用于我拥有的对象列表)。是否可以获取现实世界对象的位置,以便可以在对象上方显示一些叠加层?
也就是说,如果我扫描了水瓶,则应该能够找到水瓶的位置。它可能在水瓶中的任何地方,但不应放在水瓶外面。使用SceneKit是否可能?
我正在运行来自iPhone 6上来自keras的mlmodel。预测通常会因错误而失败Error computing NN outputs。有谁知道可能是什么原因,如果我有什么办法可以解决?
do {
return try model.prediction(input1: input)
} catch let err {
fatalError(err.localizedDescription) // Error computing NN outputs error
}
Run Code Online (Sandbox Code Playgroud)
coreml ×13
ios ×8
ios11 ×4
swift ×4
xcode ×3
objective-c ×2
apple-vision ×1
arkit ×1
cocoa-touch ×1
numpy ×1
python ×1
pytorch ×1
scenekit ×1
scikit-learn ×1
tensorflow ×1
turi-create ×1
xamarin ×1
xamarin.ios ×1