目前我正在编写一个增强现实应用程序,我在屏幕上获取对象时遇到了一些问题.对我来说非常令人沮丧的是,我无法将gps-points转换为我的Android设备上相应的屏幕点.我已经在stackoverflow上阅读了很多文章和许多其他帖子(我已经问了类似的问题),但我仍然需要你的帮助.
我做了维基百科中解释的透视投影.
我如何处理透视投影的结果以获得最终的屏幕点?
geometry android projection perspectivecamera augmented-reality
当不使用 KL 散度项时,VAE 几乎完美地重建了 mnist 图像,但在提供随机噪声时无法正确生成新图像。
当使用 KL 散度项时,VAE 在重建和生成图像时给出相同的奇怪输出。
这是损失函数的pytorch代码:
def loss_function(recon_x, x, mu, logvar):
BCE = F.binary_cross_entropy(recon_x, x.view(-1, 784), size_average=True)
KLD = -0.5 * torch.sum(1 + logvar - mu.pow(2) - logvar.exp())
return (BCE+KLD)
Run Code Online (Sandbox Code Playgroud)
recon_x 是重建图像,x 是 original_image,mu 是均值向量,而 logvar 是包含方差对数的向量。
这里出了什么问题?提前致谢 :)
bayesian-networks autoencoder deep-learning pytorch loss-function
我的图像大小不均匀,所以当卷积将其缩小 2 倍时,然后我这样做Conv2DTranspose,我没有得到一致的大小,这是一个问题。
所以我想我应该用额外的行和列填充中间张量,其值与我在边缘看到的值相同,以尽量减少干扰。我如何在 Keras 中做到这一点,这可能吗?我有什么选择?
image-processing padding conv-neural-network keras tensorflow
有没有办法k在 Tensorflow 的二维张量中找到最高值?
我可以tf.nn.top_k用于一维张量,但它不能用于二维张量。我有一个大小未知的二维张量,有没有办法找到最高k值及其索引?
非常感谢。
我正在学习pytorch并运行玩具回归问题。我似乎每次对模型运行张量时,预测都会改变,这一事实令我感到困惑。显然不是这样,但是我想念的是什么?
Pytorch版本: 0.4.0
我在没有GPU的情况下运行以消除该潜在问题。
码:
from __future__ import division
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
import torch
import torch.utils.data as utils_data
from torch.autograd import Variable
from torch import optim, nn
from torch.utils.data import Dataset
import torch.nn.functional as F
from torch.nn.init import xavier_uniform_, xavier_normal_,uniform_
from sklearn.datasets import load_boston
from sklearn.metrics import mean_squared_error
cuda=False #set to true uses GPU
#load boston data from scikit
boston = load_boston()
x=boston.data
y=boston.target
y=y.reshape(y.shape[0],1)
#change to tensors
x = torch.from_numpy(x) …Run Code Online (Sandbox Code Playgroud) 我想使用深度学习或机器学习在我的前端做一些计算。
但是没有反应的例子。
我最初的想法是使用 python 和 react。Tensorflow 将在 Python 后端运行,而前端将使用 React 并从 Python 后端获取结果。
然后我看到 Tensorflow 也在 Javascript 中。所以它可以直接在网站上使用,对吗?
那么 React 可以直接使用 Tensorflow 吗?
我想编写一个自定义损失函数,该函数将权衡正目标值的低估。它将像均方误差一样工作,唯一的区别在于,在这种情况下,均方误差将乘以大于1的权重。
我这样写:
def wmse(ground_truth, predictions):
square_errors = np.square(np.subtract(ground_truth, predictions))
weights = np.ones_like(square_errors)
weights[np.logical_and(predictions < ground_truth, np.sign(ground_truth) > 0)] = 100
weighted_mse = np.mean(np.multiply(square_errors, weights))
return weighted_mse
Run Code Online (Sandbox Code Playgroud)
然而,当我把它提供给我的顺序模型keras与tensorflow作为后端:
model.compile(loss=wmse,optimizer='rmsprop')
Run Code Online (Sandbox Code Playgroud)
我收到以下错误:
raise TypeError("Using a `tf.Tensor` as a Python `bool` is not allowed.
TypeError: Using a `tf.Tensor` as a Python `bool` is not allowed. Use `if t is not None:` instead of `if t:` to test if a tensor is defined, and use TensorFlow ops such as tf.cond to …Run Code Online (Sandbox Code Playgroud) 我正在尝试加载我自己的数据集,并且我使用了一个自定义Dataloader来读取图像和标签并将它们转换为 PyTorch 张量。然而,当Dataloader被实例化时,它返回字符串 x"image"和 y,"labels"而不是读取时的实际值或张量 ( iter)
print(self.train_loader) # shows a Tensor object
tic = time.time()
with tqdm(total=self.num_train) as pbar:
for i, (x, y) in enumerate(self.train_loader): # x and y are returned as string (where it fails)
if self.use_gpu:
x, y = x.cuda(), y.cuda()
x, y = Variable(x), Variable(y)
Run Code Online (Sandbox Code Playgroud)
这是dataloader.py这样的:
from __future__ import print_function, division #ds
import numpy as np
from utils import plot_images
import os #ds
import pandas …Run Code Online (Sandbox Code Playgroud) 我[-1,256,256,3]使用如下所示的转置图层作为输出形状。我打印输出形状。我的问题特别是关于高度和宽度这两者的问题256。通道似乎是我代码中最后一个转置层的滤波器数量。
我相当简单地假设公式是这样的。我读了其他主题。
H = (H1 - 1)*stride + HF - 2*padding
Run Code Online (Sandbox Code Playgroud)
但是当我计算时,我似乎没有得到该输出。我想我可能会缺少填充计算,那么添加了多少填充'SAME'?
我的代码是这个。
H = (H1 - 1)*stride + HF - 2*padding
Run Code Online (Sandbox Code Playgroud) 例如,输入一维张量:
l_in = [1,1,2,2,3,4,5,5,1,3,5]
Run Code Online (Sandbox Code Playgroud)
我想删除连续的重复项,这意味着输出应该是:
l_out = [1,2,3,4,5,1,3,5]
Run Code Online (Sandbox Code Playgroud)
然而,该tf.unique函数只返回唯一的元素,这表明最后三个元素也将被消除。的输出tf.unique是:
[1,2,3,4,5], [0,0,1,1,2,3,4,4,0,2,4] = tf.unique(l_in)
Run Code Online (Sandbox Code Playgroud)
其中第二项是相应的 ID。
有没有什么方法可以只删除连续的重复项,同时保留非重复和非唯一的元素?
tensorflow ×6
pytorch ×3
tensor ×3
keras ×2
python ×2
android ×1
autoencoder ×1
convolutional-neural-network ×1
dataset ×1
duplicates ×1
enumerate ×1
geometry ×1
image ×1
matrix ×1
padding ×1
projection ×1
reactjs ×1
unique ×1