标签: tensorflow-lite

如何识别张量板图中的输入和输出名称,例如本文所附图片中的输入和输出名称?

我使用 MobileNet_v1_1.0_224 张量流模型进行对象检测。现在,我有自定义冻结图(.pb 文件),需要将其转换为 tflite 扩展名,以便我可以在移动设备上使用我的模型。

有人可以帮我识别这个张量板图中的输入和输出名称吗?我需要它们用作输入和输出参数,以将我的冻结图(.pb 文件)转换为tensorflow lite(.tflite)文件

来自张量板的图表

同一张图

python deep-learning tensorflow tensorboard tensorflow-lite

1
推荐指数
1
解决办法
2463
查看次数

错误:配置值 download_clang 未在任何 .rc 文件中定义

参考错误:配置值 download_clang 未在任何 .rc 文件中定义。我陷入了同样的问题。我有tensorflow 2并且已签出分支 r2.2 。我有相同的错误:错误:配置值 download_clang 不是在任何 .rc 文件中定义。谁能告诉我理想情况下我应该安装哪个 bazel 版本。我已经尝试过 2.0 和 3.0

bazel tensorflow-lite

1
推荐指数
1
解决办法
1352
查看次数

标准 TFlite 对象检测模型在 MLKit 中不起作用

如果我在 MLKit 中使用预训练的 TFLite 对象检测模型,则会收到以下错误:

 CalculatorGraph::Run() failed in Run: 
    Calculator::Open() for node "BoxClassifierCalculator" failed: #vk Unexpected number of dimensions for output index 0: got 3D, expected either 2D (BxN with B=1) or 4D (BxHxWxN with B=1, W=1, H=1).
Run Code Online (Sandbox Code Playgroud)

知道我可能做错了什么吗?

tensorflow tensorflow-lite google-mlkit

1
推荐指数
1
解决办法
3419
查看次数

如何解决树莓派 Bullseye 中的“导入错误:/lib/arm-linux-gnueabihf/libstdc++.so.6:版本‘GLIBCXX_3.4.29’未找到”

您好,我正在尝试测试张量流视频分类教程。链接在这里。安装完所有依赖项后,我遇到了问题在此输入图像描述你能给我建议一个解决方案吗?

我已经尝试了一些关于这个问题的方法,但它对我不起作用。关联

c++ raspberry-pi tensorflow tensorflow-lite

1
推荐指数
1
解决办法
3761
查看次数

如何将 tflite 文件嵌入到 Android 应用程序中?

使用 TFlite 文件并将其嵌入实际 Android 应用程序的分步说明是什么?作为参考,这是回归。输入将是图像,输出应该是数字。我已经看过 TensorFlow 文档,但他们没有解释如何从头开始。

tensorflow tensorflow-lite

0
推荐指数
1
解决办法
2842
查看次数

解读tensorflow benchmark工具的结果

Tensorflow 有几个基准测试工具:

对于.pb 模型.tflite 模型

我对 .pb 基准工具的参数有几个问题:

  1. num_threads相关的单线程实验或通过使用tensorflow内螺纹平行运行次数?
  2. 为桌面构建工具时是否可以使用 GPU,即不适用于移动设备?如果是这样,如何确保不使用GPU?

还有一些关于结果解释的问题:

  1. 什么是count在结果输出?如何Timings (microseconds): count=相关--max_num_runs的参数?

例子:

Run --num_threads=-1 --max_num_runs=1000:
    2019-03-20 14:30:33.253584: I tensorflow/core/util/stat_summarizer.cc:85] Timings (microseconds): count=1000 first=3608 curr=3873 min=3566 max=8009 avg=3766.49 std=202
    2019-03-20 14:30:33.253584: I tensorflow/core/util/stat_summarizer.cc:85] Memory (bytes): count=1000 curr=3301344(all same)
    2019-03-20 14:30:33.253591: I tensorflow/core/util/stat_summarizer.cc:85] 207 nodes observed
    2019-03-20 14:30:33.253597: I tensorflow/core/util/stat_summarizer.cc:85]
    2019-03-20 14:30:33.378352: I tensorflow/tools/benchmark/benchmark_model.cc:636] FLOPs estimate: 116.65M
    2019-03-20 14:30:33.378390: I tensorflow/tools/benchmark/benchmark_model.cc:638] FLOPs/second: 46.30B

Run --num_threads=1 --max_num_runs=1000:
    2019-03-20 …
Run Code Online (Sandbox Code Playgroud)

benchmarking tensorflow tensorflow-lite

0
推荐指数
1
解决办法
1023
查看次数

TF Lite 对象检测仅返回 10 个检测

我在原生 Android 上使用带有 TensorFlow Lite 的自定义对象检测模型。在这一点上,我只检测到 2 个自定义对象。我正在使用 TensorFlow 对象检测 API,并且我有一个管道可以生成优化的 .tflite 文件。

但是,在推理时,该模型最多只返回 10 个单独的检测。根据https://www.tensorflow.org/lite/models/object_detection/overview,这是预期的。问题是我的图像具有相对较大的对象密度。我需要能够在每个图像/推理调用中检测多达 30 个单独的对象。

如果我将示例 Android 应用程序中的 NUM_DETECTIONS 从 TF 存储库从 10 更改为 20,由于形状不匹配,我会收到运行时异常。如何生成能够产生超过 10 个对象检测实例的 .tflite 文件?

谢谢!

tensorflow tensorflow-lite

0
推荐指数
1
解决办法
828
查看次数

java.lang.IllegalArgumentException:无法在形状为 [2] 的 TensorFlowLite 张量和形状为 [1, 2] 的 Java 对象之间复制

我已经在 keras 中训练了我自己的图像分类模型模型,并将其转换为 tflite 然后我想通过 tensorflow lite 在 android 中使用该模型。为此,我使用了一个 github 项目来直接获取该项目的应用程序链接:

https://github.com/amitshekhariitbhu/Android-TensorFlow-Lite-Example/tree/master/app/src/main/java/com/amitshekhar/tflite

但是我在 logcat 中遇到了这个错误:

2020-03-30 14:50:48.747 27421-27421/com.amitshekhar.tflite E/AndroidRuntime: FATAL EXCEPTION: main
    Process: com.amitshekhar.tflite, PID: 27421
    java.lang.IllegalArgumentException: Cannot copy between a TensorFlowLite tensor with shape [2] and a Java object with shape [1, 2].
        at org.tensorflow.lite.Tensor.throwIfShapeIsIncompatible(Tensor.java:342)
        at org.tensorflow.lite.Tensor.throwIfDataIsIncompatible(Tensor.java:305)
        at org.tensorflow.lite.Tensor.copyTo(Tensor.java:183)
        at org.tensorflow.lite.NativeInterpreterWrapper.run(NativeInterpreterWrapper.java:166)
        at org.tensorflow.lite.Interpreter.runForMultipleInputsOutputs(Interpreter.java:311)
        at org.tensorflow.lite.Interpreter.run(Interpreter.java:272)
        at com.amitshekhar.tflite.TensorFlowImageClassifier.recognizeImage(TensorFlowImageClassifier.java:70)
        at com.amitshekhar.tflite.MainActivity$1.onImage(MainActivity.java:75)
        at com.wonderkiln.camerakit.EventDispatcher$1.run(EventDispatcher.java:42)
        at android.os.Handler.handleCallback(Handler.java:873)
        at android.os.Handler.dispatchMessage(Handler.java:99)
        at android.os.Looper.loop(Looper.java:224)
        at android.app.ActivityThread.main(ActivityThread.java:7094)
        at java.lang.reflect.Method.invoke(Native Method)
        at com.android.internal.os.RuntimeInit$MethodAndArgsCaller.run(RuntimeInit.java:536)
        at com.android.internal.os.ZygoteInit.main(ZygoteInit.java:928)
Run Code Online (Sandbox Code Playgroud)

对此的任何帮助将不胜感激,此外,除了我的模型的输入大小和我自己的 tflite …

android machine-learning tensorflow tensorflow-lite

0
推荐指数
1
解决办法
2183
查看次数

创建填充有元数据的 Tflite 模型时出现问题(用于对象检测)

我正在尝试在 Android 上运行 tflite 模型以进行对象检测。对于相同的,

  1. 我已经成功地用我的图像集训练了模型,如下所示:

(a) 培训:

!python3 object_detection/model_main.py \
--pipeline_config_path=/content/drive/My\ Drive/Detecto\ Tutorial/models/research/object_detection/samples/configs/ssd_mobilenet_v2_coco.config \
--model_dir=training/
Run Code Online (Sandbox Code Playgroud)

(修改配置文件以指向提到我的特定 TFrecords 的位置)

(b) 导出推理图

!python /content/drive/'My Drive'/'Detecto Tutorial'/models/research/object_detection/export_inference_graph.py \
--input_type=image_tensor \
--pipeline_config_path=/content/drive/My\ Drive/Detecto\ Tutorial/models/research/object_detection/samples/configs/ssd_mobilenet_v2_coco.config \
--output_directory={output_directory} \
--trained_checkpoint_prefix={last_model_path}
Run Code Online (Sandbox Code Playgroud)

(c) 创建 tflite 就绪图

!python /content/drive/'My Drive'/'Detecto Tutorial'/models/research/object_detection/export_tflite_ssd_graph.py \
  --pipeline_config_path=/content/drive/My\ Drive/Detecto\ Tutorial/models/research/object_detection/samples/configs/ssd_mobilenet_v2_coco.config \
  --output_directory={output_directory} \
  --trained_checkpoint_prefix={last_model_path} \
  --add_postprocessing_op=true
Run Code Online (Sandbox Code Playgroud)
  1. 我使用图形文件中的 tflite_convert 创建了一个 tflite 模型,如下所示

    !tflite_convert
    --graph_def_file=/content/drive/My\ Drive/Detecto\ Tutorial/models/research/fine_tuned_model/tflite_graph.pb
    --output_file=/content/drive/My\ Drive/Detecto\ Tutorial/models/research/fine_tuned_model /detect3.tflite
    --output_format = TFLITE
    --input_shapes = 1,300,300,3
    --input_arrays = normalized_input_image_tensor
    --output_arrays = 'TFLite_Detection_PostProcess', 'TFLite_Detection_PostProcess:1', 'TFLite_Detection_PostProcess:2', …

python android metadata tensorflow tensorflow-lite

0
推荐指数
1
解决办法
2164
查看次数