相关疑难解决方法(0)

TensorFlow中variable_scope和name_scope之间的区别

variable_scope和之间有什么区别name_scope?该变量的作用域教程挂在嘴边variable_scope隐含打开name_scope.我还注意到,在a中创建变量也会name_scope自动扩展其名称以及作用域名称.那么区别是什么呢?

python scope tensorflow

71
推荐指数
2
解决办法
2万
查看次数

Tensorflow:tf.get_collection不返回范围中的变量

我试图让所有的变量在变量范围,如解释在这里.但是,tf.get_collection(tf.GraphKeys.VARIABLES, scope='my_scope')即使该范围中存在变量,该行也会返回一个空列表.

这是一些示例代码:

import tensorflow as tf

with tf.variable_scope('my_scope'):
    a = tf.Variable(0)
print tf.get_collection(tf.GraphKeys.VARIABLES, scope='my_scope')
Run Code Online (Sandbox Code Playgroud)

打印[].

如何获取声明的变量'my_scope'

python tensorflow

6
推荐指数
1
解决办法
3376
查看次数

了解Tensorflow中的变量范围示例

我正在查看Tensorflow的机制部分,特别是关于共享变量的部分.在"问题"部分,他们正在处理卷积神经网络,并提供以下代码(通过模型运行图像):

# First call creates one set of variables.
result1 = my_image_filter(image1)
# Another set is created in the second call.
result2 = my_image_filter(image2)
Run Code Online (Sandbox Code Playgroud)

如果模型是以这种方式实现的,那么学习/更新参数是不可能的,因为我的训练集中的每个图像都有一组新的参数?

编辑:我也在一个简单的线性回归示例中尝试了"问题"方法,并且这种实现方法似乎没有任何问题.训练似乎也可以在代码的最后一行显示.所以我想知道tensorflow文档中是否存在微妙的差异以及我正在做什么.:

import tensorflow as tf
import numpy as np

trX = np.linspace(-1, 1, 101)
trY = 2 * trX + np.random.randn(*trX.shape) * 0.33 # create a y value which is         approximately linear but with some random noise

X = tf.placeholder("float") # create symbolic variables
Y = tf.placeholder("float")


def model(X):
    with tf.variable_scope("param"): …
Run Code Online (Sandbox Code Playgroud)

tensorflow

4
推荐指数
1
解决办法
1万
查看次数

标签 统计

tensorflow ×3

python ×2

scope ×1