我正在尝试使用该函数可视化tensorflow中卷积层的输出tf.image_summary
.我已经在其他情况下成功使用它(例如可视化输入图像),但是在这里正确地重塑输出有一些困难.我有以下转换层:
img_size = 256
x_image = tf.reshape(x, [-1,img_size, img_size,1], "sketch_image")
W_conv1 = weight_variable([5, 5, 1, 32])
b_conv1 = bias_variable([32])
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
Run Code Online (Sandbox Code Playgroud)
所以输出h_conv1
会有形状[-1, img_size, img_size, 32]
.只是使用tf.image_summary("first_conv", tf.reshape(h_conv1, [-1, img_size, img_size, 1]))
不考虑32个不同的内核,所以我基本上在这里切换不同的功能图.
我怎样才能正确地重塑它们?或者是否有另一个帮助函数可用于在摘要中包含此输出?
我正在尝试加载一堆utf-8编码的字符串并使用PyYaml再次转储它们.这是加载/转储的代码:
lang_yml = yaml.load(codecs.open(lang + ".yml.old", "r", "utf-8"))
test_file_path = lang + '.yml'
stream = file(test_file_path, 'w')
yaml.dump(lang_yml, stream, default_flow_style=False, encoding=('utf-8'))
Run Code Online (Sandbox Code Playgroud)
但是以"恩到达"开头的字符串最终被保存为"恩到达\ xE8re".我究竟做错了什么?
在torquebox上运行我的rails应用程序时,我得到了很多
already initialized constant: ...
Run Code Online (Sandbox Code Playgroud)
来自的警告gems/jruby-openssl-0.8.2/lib/shared/jruby-openssl.rb:16
.这是安全问题吗?有没有办法摆脱这些警告?
我想使用以下代码调查张量板中的设备放置,以便在摘要中生成图形
# Build the summary operation based on the TF collection of Summaries.
summary_op = tf.merge_all_summaries()
saver = tf.train.Saver(tf.all_variables())
summary_writer = tf.train.SummaryWriter(log_directory, graph_def=sess.graph_def)
Run Code Online (Sandbox Code Playgroud)
这适用于显示图表中定义的图表和摘要.但是当在张量板中选择"设备放置"时,所有节点都被分配给"未知设备".我是否需要以其他方式转储设备放置?
我在4 GB RAM的计算机上使用bazel(编译tensorflow项目).但是,Bazel没有考虑我的内存量,并且产生了太多的工作,导致我的机器交换并导致更长的构建时间.
我已经尝试通过我的以下行设置ram_utilization_factor标志~/.bazelrc
build --ram_utilization_factor 30
test --ram_utilization_factor 30
Run Code Online (Sandbox Code Playgroud)
但这没有帮助.这些因素如何被理解?我应该随便试一下其他人吗?
我想根据运行时给出的标志使输出详细/非详细.我的想法是,构造一个依赖于标志的std :: ostream,例如:
std::ostream out;
if (verbose) {
out = std::cout
else {
// Redirect stdout to null by using boost's null_sink.
boost::iostreams::stream_buffer<boost::iostreams::null_sink> null_out{boost::iostreams::null_sink()};
// Somehow construct a std::ostream from nullout
}
Run Code Online (Sandbox Code Playgroud)
现在我不得不从这样的提升streambuffer构建一个std :: ostream.我该怎么做?
我正在尝试使用在运行测试之前设置特定区域设置的integration_test包来进行测试。我尝试了以下方法(与 WidgetTests 中的方法很接近):
await tester.binding.setLocale('en', 'US');
app.main();
await tester.idle();
await tester.pumpAndSettle();
// The app is still using the default locale of the phone...
Run Code Online (Sandbox Code Playgroud)
这个需要在驱动里设置吗?这是我当前在驱动程序中的设置:
// Some adb commands for granting permissions...
print('Starting test.');
final FlutterDriver driver = await FlutterDriver.connect();
final String data = await driver.requestData(
null,
timeout: const Duration(minutes: 1),
);
await driver.close();
// Some more adb commands to revoke permissions.
Run Code Online (Sandbox Code Playgroud)
这似乎不起作用。
我在这里发现了这个问题,但它没有使用该integration_test
包,因此完全有不同的设置。
我对tf.matmul()
在TensorFlow中使用该函数感到有点困惑.不过,我的问题可能更多是关于深度学习的理论.假设你有一个输入X和权重矩阵W(假设零偏差),我想计算WX作为输出,可以通过tf.matmul(W, X)
.但是,在初学者的教程MNIST中,它是相反的,tf.matmul(X, W)
而是用来代替.在另一方面,在接下来的教程TensorFlow机械101,tf.matmul(W, X)
被使用.由于矩阵大小对于乘法很重要,我想知道是否有人可以澄清这个问题.
有没有一种简洁的方法来计算图像的颜色直方图?也许通过滥用内部代码tf.histogram_summary
?从我所看到的,这段代码不是很模块化,直接调用一些C++代码.
提前致谢.
我正在尝试通过Java中的以下命令来启动脚本:
proc = Runtime.getRuntime().exec(cmd, null, fwrkDir);
Run Code Online (Sandbox Code Playgroud)
在控制台中键入的命令运行正常。但是,即使将路径添加到$ PATH变量中,在这里似乎也找不到该脚本。如果将null传递为Environment,Java不会自动继承所有此类变量吗?
我正在尝试在两个图像之间使用 SSD 作为我网络的损失函数。
# h_fc2 is my output layer, y_ is my label image.
ssd = tf.reduce_sum(tf.square(y_ - h_fc2))
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(ssd)
Run Code Online (Sandbox Code Playgroud)
问题是,然后权重发散,我得到错误
ReluGrad input is not finite. : Tensor had Inf values
Run Code Online (Sandbox Code Playgroud)
为什么?我确实尝试了其他一些东西,例如通过图像大小标准化 ssd(不起作用)或将输出值裁剪为 1(不再崩溃,但我仍然需要对此进行评估):
ssd_min_1 = tf.reduce_sum(tf.square(y_ - tf.minimum(h_fc2, 1)))
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(ssd_min_1)
Run Code Online (Sandbox Code Playgroud)
我的观察是否符合预期?
编辑:@mdaoust 建议被证明是正确的。重点是按批量大小进行标准化。这可以通过使用此代码独立于批量大小完成
squared_diff_image = tf.square(label_image - output_img)
# Sum over all dimensions except the first (the batch-dimension).
ssd_images = tf.reduce_sum(squared_diff_image, [1, 2, 3])
# Take mean ssd over batch.
error_images = tf.reduce_mean(ssd_images)
Run Code Online (Sandbox Code Playgroud)
有了这个变化,只需要稍微降低学习率(到 0.0001)。
我正在尝试将一个掩码(二进制,只有一个通道)应用于RGB图像(3个通道,标准化为[0,1]).我目前的解决方案是,将RGB图像分割成它的通道,将其与掩码相乘并再次连接这些通道:
with tf.variable_scope('apply_mask') as scope:
# Output mask is in range [-1, 1], bring to range [0, 1] first
zero_one_mask = (output_mask + 1) / 2
# Apply mask to all channels.
channels = tf.split(3, 3, output_img)
channels = [tf.mul(c, zero_one_mask) for c in channels]
output_img = tf.concat(3, channels)
Run Code Online (Sandbox Code Playgroud)
然而,这似乎效率很低,特别是因为根据我的理解,这些计算都不是就地完成的.有没有更有效的方法来做到这一点?
我正在尝试使用简单形式的i18n功能,这在大多数情况下都很有效.
我唯一的问题是,在一种情况下我想使用数字作为选项值,所以我不能像其他情况那样简单地创建一个符号.现在,我正在使用这个解决方案:
f.input :adm, :as => :select, :collection => [[:adm11 ,"11"],
[:adm00, "00"], [:adm06, "06"], [:adm99, "99"]]
Run Code Online (Sandbox Code Playgroud)
我可以以某种方式使simple_form以通常的方式查找adm11等,所以我可以在我的翻译文件中保持一个合理的结构吗?
我知道我可以使用标准的红宝石i18n,但我正在寻找更好的方法.
tensorflow ×6
bazel ×1
boost ×1
c++ ×1
flutter ×1
java ×1
jruby ×1
mask ×1
openssl ×1
path ×1
python ×1
pyyaml ×1
runtime.exec ×1
simple-form ×1
tensorboard ×1
torquebox ×1
utf-8 ×1
variables ×1