Val*_*ess 2 python automatic-differentiation jax
我试图了解argnumsJAX 梯度函数的行为。假设我有以下函数:
def make_mse(x, t):
def mse(w,b):
return np.sum(jnp.power(x.dot(w) + b - t, 2))/2
return mse
Run Code Online (Sandbox Code Playgroud)
我通过以下方式获取渐变:
w_gradient, b_gradient = grad(make_mse(train_data, y), (0,1))(w,b)
Run Code Online (Sandbox Code Playgroud)
argnums= (0,1)在这种情况下,但这意味着什么呢?梯度是针对哪些变量计算的?如果我改用的话会有什么区别argnums=0?另外,我可以使用相同的函数来获取 Hessian 矩阵吗?
我查看了JAX 帮助部分,但无法弄清楚
当您将多个 argnum 传递给 grad 时,结果是一个返回梯度元组的函数,相当于您单独计算了每个梯度:
def f(x, y):
return x ** 2 + x * y + y ** 2
df_dxy = grad(f, argnums=(0, 1))
df_dx = grad(f, argnums=0)
df_dy = grad(f, argnums=1)
x = 3.0
y = 4.25
assert df_dxy(x, y) == (df_dx(x, y), df_dy(x, y))
Run Code Online (Sandbox Code Playgroud)
如果要计算混合二阶导数,可以通过重复应用梯度来完成:
d2f_dxdy = grad(grad(f, argnums=0), argnums=1)
assert d2f_dxdy(x, y) == 1
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
3503 次 |
| 最近记录: |