我是新来的tensorflow
.我想写自己的自定义丢失函数.有关于此的任何教程吗?例如,铰链损失或sum_of_square_loss(虽然这已经在tf中)?我可以直接在python中完成它,或者我必须编写cpp代码吗?
如标题中所述,我想在tensorflow中使用现有的ops和tensor操作实现自定义层.我想知道我是否可以在python中完成它,就像在theano中可以做到的那样.在该层中,输入可以是一些矩阵,批量输入和一些权重和偏差需要被学习.在一些张量操作之后,输出将被馈送到下一层.这一层的计算可能很复杂,所以我想知道tensorflow是否可以为我做自动差异.
我知道这两个功能是火炬的向后传播和界面如下
updateGradInput(input, gradOutput)
accGradParameters(input, gradOutput, scale)
我感到困惑的是什么gradInput
,并gradOutput
真正在层意思.假设网络的成本是C
一层L
.难道gradInput
和gradOutput
层的L
意思是d_C/d_input_L
和d_C/d_output_L
?
如果是这样,如何计算gradInput
符合gradOutput
?
而且,是否accGradParameters
意味着积累d_C/d_Weight_L
和d_C/d_bias_L
?如果是这样,如何计算这些值?
backpropagation neural-network gradient-descent deep-learning torch
3D三角形网格形状由顶点和三角形面表示.例如,shape
在matlab中shape.X, shape.Y, shape.Z(the vertices) and shape.TRIV(the triangle faces)
可以看作3D三角形网格形状.
我的问题是如何使用特定的色彩图在MATLAB中可视化这样的形状.
(例如,该颜色映射可被定义为一个距离向量的length(shape.X)
其元素是所有顶点的到单个顶点的欧几里德距离M
,在这种情况下,涉及到较小的距离的冷却器的颜色,和较热的颜色相关的较大的距离. )