相关疑难解决方法(0)

张量流中每个示例的未聚集梯度/渐变

给定张量流中mnist的简单小批量梯度下降问题(如本教程中所述),如何单独检索批处理中每个示例的渐变.

tf.gradients()似乎返回批次中所有示例的平均梯度.有没有办法在聚合之前检索渐变?

编辑:这个答案的第一步是弄清楚张力流在哪个点上平均了批次中的例子的梯度.我以为这发生在_AggregatedGrads中,但事实并非如此.有任何想法吗?

tensorflow

15
推荐指数
1
解决办法
4754
查看次数

Tensorflow梯度:没有自动隐式求和

在张量流中,如果一个有两个张量x,y并且一个想要y具有关于x使用的梯度tf.gradients(y,x).然后实际得到的是:

gradient[n,m] = sum_ij d y[i,j]/ d x[n,m]
Run Code Online (Sandbox Code Playgroud)

y的指数有一个总和,有没有办法避免这种隐含的总和?获得整个梯度张量gradient[i,j,n,m]

python gradient tensorflow

7
推荐指数
2
解决办法
797
查看次数

TensorFlow:计算Hessian矩阵(和更高阶导数)

我希望能够为我的损失函数计算更高阶导数.至少我希望能够计算Hessian矩阵.目前我正在计算Hessian的数值近似值,但这更昂贵,更重要的是,据我所知,如果矩阵病态(条件数非常大),则不准确.

Theano通过符号循环来实现这一点,请参见此处,但Tensorflow似乎还不支持符号控制流,请参见此处.在TF github页面上已经提出了类似的问题,请参见此处,但看起来似乎没有人对此问题进行了一段时间的跟进.

是否有人了解TensorFlow中更近期的发展或计算高阶导数(象征性地)的方法?

python matrix tensorflow

4
推荐指数
1
解决办法
7258
查看次数

标签 统计

tensorflow ×3

python ×2

gradient ×1

matrix ×1