Keras - 使用带参数的激活功能

Lug*_*ugi 13 keras

如何在最新版本的keras中使用泄漏的ReLU?函数relu()接受一个可选参数'alpha',它负责负斜率,但我无法弄清楚如何在构造图层时传递参数.

这条线是我试图这样做的,

model.add(Activation(relu(alpha=0.1))
Run Code Online (Sandbox Code Playgroud)

但后来我得到了错误

TypeError: relu() missing 1 required positional argument: 'x'
Run Code Online (Sandbox Code Playgroud)

如何使用泄漏的ReLU或任何其他具有某些参数的激活功能?

Tho*_*lut 8

relu是一个函数,而不是一个类,它将激活函数的输入作为参数x.激活层将函数作为参数,因此您可以通过输入使用lambda函数对其进行初始化x,例如:

model.add(Activation(lambda x: relu(x, alpha=0.1)))
Run Code Online (Sandbox Code Playgroud)

  • 使用功能性API如何工作?例如在`x = Dense(64,activation ='relu')(x)中更改relu的alpha参数。 (2认同)