我试图找出在 iOS 应用程序中从 Tensorflow 模型(Inception 或 mobilenet)运行对象检测的最简单方法。
我有 iOS Tensorflow 图像分类在我自己的应用程序和网络中按照这个示例工作
并按照此示例在 Android 中为我自己的应用程序和网络使用 Tensorflow 图像分类和对象检测
但是iOS的例子不包含物体检测,只有图像分类,那么如何扩展iOS的例子代码来支持物体检测,或者iOS中有完整的例子吗?(最好是目标-C)
我确实找到了this和this,但是它从源代码重新编译了 Tensorflow,这看起来很复杂,
还发现了Tensorflow lite,
但同样没有物体检测。
我还找到了将 Tensorflow 模型转换为 Apple Core ML 的选项,使用 Core ML,但这看起来很复杂,在 Core ML 中找不到对象检测的完整示例
我开始知道您必须为服务扩展创建单独的应用程序 ID 和单独的配置文件。当我检查通知服务扩展的创建 ID 时,它显示推送通知是可配置的。我应该为它创建一个新的 apns 证书还是我可以使用基本应用程序 apns 证书?