mat*_*ick 9 keras tensorflow2.0
我有从未编译的keras代码构建的模型,并且正在尝试通过自定义训练循环运行它们。
TF 2.0急切(默认)代码在CPU(笔记本电脑)上运行约30秒钟。当我用包装的tf.function调用方法创建一个keras模型时,它运行的速度非常慢,而且启动时间似乎很长,尤其是“第一次”。
例如,在tf.function代码中,对10个样本的初始训练花费40s,而对10个样本的后续训练花费2s。
在20个样本上,初始花费50s,后续花费4s。
第一次采样1个样本需要2秒钟,后续过程需要200毫秒。
如此看来,每次火车呼叫都在创建一个新图,其中复杂度随火车数量而增加!
我只是在做这样的事情:
@tf.function
def train(n=10):
step = 0
loss = 0.0
accuracy = 0.0
for i in range(n):
step += 1
d, dd, l = train_one_step(model, opt, data)
tf.print(dd)
with tf.name_scope('train'):
for k in dd:
tf.summary.scalar(k, dd[k], step=step)
if tf.equal(step % 10, 0):
tf.print(dd)
d.update(dd)
return d
Run Code Online (Sandbox Code Playgroud)
根据示例,模型keras.model.Model
使用@tf.function
装饰call
方法。
nes*_*uno 12
我分析了这种行为@tf.function
在这里使用Python的本机类型。
简而言之:的设计tf.function
不会自动将Python本机类型装箱到tf.Tensor
定义良好的对象dtype
。
如果您的函数接受一个tf.Tensor
对象,则在第一次调用时将对该函数进行分析,然后将图形建立并与该函数关联。在每一个非第一次呼叫中,如果dtype
所述的tf.Tensor
对象匹配,图形被再利用。
但是在使用Python本机类型的情况下,每次以不同的值调用函数时都会构建graphg 。
简而言之:tf.Tensor
如果打算使用,请设计代码以在所有地方使用,而不是在Python变量中使用@tf.function
。
tf.function
不是可以神奇地加速在急切模式下运行良好的功能的包装器;是一个包装,需要设计eager函数(主体,输入参数,dytpes),以了解创建图形后将发生的情况,从而获得真正的提速效果。
归档时间: |
|
查看次数: |
1010 次 |
最近记录: |