(GTX 1080,Tensorflow 1.0.0)
在训练nvidia-smi输出期间(如下所示)表明,大多数情况下GPU 使用率均为0%(尽管使用了GPU)。关于我已经训练的时间,情况似乎是这样。偶尔,它有时会达到100%或类似的峰值。
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 375.26 Driver Version: 375.26 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 1080 Off | 0000:01:00.0 On | N/A |
| 33% 35C P2 49W / 190W | 7982MiB / 8110MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type …Run Code Online (Sandbox Code Playgroud) 我在 tensorflow 中有一个脚本,其中包含自定义 tensorflow ops。我想将代码移植到 keras,但我不确定如何在 keras 代码中调用自定义操作。
我想在 keras 中使用 tensorflow,所以到目前为止我发现的教程描述的与我想要的相反:https ://blog.keras.io/keras-as-a-simplified-interface-to-tensorflow-tutorial 。 HTML。
我还阅读了可以包装任意自定义函数的 Lambda 层,但我没有看到 tf.ops 的示例。
如果您能提供带有最简单示例的代码片段,我将不胜感激。例如假设 tf.ops 为:
outC = my_custom_op(inA, inB)
Run Code Online (Sandbox Code Playgroud)
---编辑:这里已经描述了类似的问题- 基本上是在 keras 中调用这个自定义操作,但是我无法掌握如何将它应用于我想要的另一个示例的解决方案,例如这个。此自定义 tf op 首先编译(用于 gpu),然后在 tensorflow 中使用,如此处,请参阅@第 40 行。我很清楚如何使用封装在 Lambda 层中的自定义(lambda)函数,我想要什么了解如何使用编译的自定义操作,如果我使用 keras。