小编LJe*_*son的帖子

使用大图像重新训练 MobileNet

我正在尝试使用我自己的图像(800x600px,颜色,所以我认为是 x3)重新训练 Tensorflow for Poets MobileNets 教程,我认为问题在于我使用的图像太大。

我已经在教程https://codelabs.developers.google.com/codelabs/tensorflow-for-poets/#7 中访问了此页面

一切正常,但是一旦我输入新的图像路径和图像大小,它就会给我这个错误:错误:tensorflow:Mobilenet 输入大小应该是“224”、“192”、“160”或“128” ',但发现架构 'mobilenet_0.50_480000' 的 '480000' 错误:tensorflow:未识别架构标志

教程说

输入图像分辨率:128,160,192 或 224px。不出所料,输入更高分辨率的图像需要更多的处理时间,但会带来更好的分类精度。

作为最大 MobileNet 的分数的模型的相对大小:1.0、0.75、0.50 或 0.25。

您应该使用以下代码输入该信息:

    IMAGE_SIZE=224
    ARCHITECTURE="mobilenet_0.50_${IMAGE_SIZE}"
Run Code Online (Sandbox Code Playgroud)

这是移动网络的限制吗?它不能做更大的图像吗?另一种可能性是我的图像都是 png,教程都是 jpeg,但我没有看到任何地方可以指定文件类型。

任何建议将不胜感激

python classification machine-learning tensorflow

5
推荐指数
0
解决办法
926
查看次数

苹果对于将 ios 应用程序连接到 python 代码的偏好是什么?

我用 python 开发了一个很酷的东西,它可以根据用户输入进行一些简单的数据操作和一些机器学习。我想为其开发一个 ios 应用程序,根据我的阅读,该应用程序应该尽可能快。我想将应用程序的“大脑”保留在服务器上的Python中,这样我就可以开发它的多个接口(一个网站,也可能是一个Android应用程序,一个chrome/safari扩展)。

我的应用程序可能只是网站移动版本的快捷方式,但根据我所读到的内容,我可以通过为 ios 编写自定义应用程序来制作更好的产品。

任何人都可以向我指出描述最受苹果认可的方式的资源,让 swift 应用程序与托管 python 后端的服务器进行通信吗?

python ios swift

0
推荐指数
1
解决办法
364
查看次数