有没有办法手动运行Tensorflow单元测试?我想在修改TF源代码时执行完整性检查.
我看到有很多_test.py文件,其中的类执行许多测试操作,我无法弄清楚如何运行它们.应该有一个简单的方法吗?
是否可以从Python端自定义TensorFlow CTC实现中的光束记分器?我在评论CTCBeamSearchDecoder C++类构造函数时看到了这种可能性,但是想知道如何为Python用户提供这个功能?
我们遇到的具体问题是将语言模型插入基于CTC的语音解码器.语言模型可能是预先训练的TensorFlow子图,能够输出光束得分调整的概率.但我们需要一种方法将其注入射线得分手.
任何人都可以向我指出在 Numba-nopython 函数中将 int/float Numpy 数组视为字节串的方式吗?
我想要实现的是尝试使用 Numba-nopython 函数作为 np.array.tobytes() 的替代品,因为它对于半大型数组来说太慢了。
在我的环境arr.tobytes()中,这段代码需要 1.1 秒,这对于这么小的数组来说是不可接受的:
arr = np.random.ranf(15000000).astype(np.float32)
str = arr.tobytes()
Run Code Online (Sandbox Code Playgroud)
这种延迟困扰着我们的 TensorFlow Serving GRPC 调用,导致不必要的减慢。
为了不将优化器和渐变节点带入推理环境,我正在尝试创建两个版本的图形 - 一个带有训练节点,另一个没有.
并且想法是用于tensorflow.train.Saver将变量从训练图形版本传递到推理图形版本.
所以我尝试了以下内容:
# Create training graph
trainingGraph = tf.Graph()
with (trainingGraph.as_default()):
trainOp, lossOp = self.CreateTrainingGraph()
trainInitOp = tf.initialize_variables(tf.all_variables(), "init_variables")
# Add saver op
self.saverOp = tf.train.Saver()
# Create inference graph
inferenceGraph = tf.Graph()
with (inferenceGraph.as_default()):
self.CreateInferenceGraph()
# Add saver op, compatible with training saver
tf.train.Saver(saver_def=self.saverOp.as_saver_def())
Run Code Online (Sandbox Code Playgroud)
在这种情况下,CreateTrainingGraph()调用CreateInferenceGraph()并在其上添加优化器和丢失.
由于某种原因,tf.train.Saver构造函数不会将save/restore_all节点添加到推理图中(或者我只是不明白saver_def选项的作用).我试过空构造函数和
sess.run([model.saverOp._restore_op_name],
{ model.saverOp._filename_tensor_name : "Params/data.pb" })
Run Code Online (Sandbox Code Playgroud)
失败了,错误
<built-in function delete_Status> returned a result with an error set
Run Code Online (Sandbox Code Playgroud)
实现这个目标的正确方法是什么?
tensorflow ×3
bazel ×1
inference ×1
numba ×1
numpy ×1
python ×1
testing ×1
unit-testing ×1
variables ×1