我想把你的注意力集中在我几天思考的事情上.HTTP/2协议用于Web开发的新功能和影响.我还想问一些相关的问题,因为我的年度计划由于HTTP/2而变得不那么准确.
由于HTTP/2使用单个多路复用连接,而不是HTTP1.x 域中的多个连接,因此不再需要分片技术.
使用HTTP/1.x,您可能已经将文件放在不同的域中,以增加文件传输到Web浏览器的并行性; 内容域网络(CDN)自动执行此操作.但它在HTTP/2下没有帮助 - 并且可能会伤害 - 性能.
Q1:HTTP/2是否会最小化对CDN的需求?
代码文件连接.通常作为单独文件维护和传输的代码块组合成一个.然后,浏览器根据需要在连接文件中查找并运行所需的代码.
Q2.HTTP/2是否会消除使用类似扩展(css,javascript)连接文件的需要以及使用优秀的Grunt和Gulp工具来实现这一目的?
问:另外,为了简化问题并使问题更加紧凑,我会问一下,您可以预见到HTTP/2对Web开发的其他影响可能会非常普遍吗?
需要知道setup.py和setup.cfg之间的区别。两者都在openstack项目中得到显着使用
我有顺序数据,我宣布了一个LSTM模型,y
用x
Keras 预测.所以,如果我打电话model.predict(x1)
和model.predict(x2)
,它是正确的调用model.reset_states
两者之间predict()
明确?是否model.reset_states
清楚输入的历史,而不是权重,对吧?
# data1
x1 = [2,4,2,1,4]
y1 = [1,2,3,2,1]
# dat2
x2 = [5,3,2,4,5]
y2 = [5,3,2,3,2]
Run Code Online (Sandbox Code Playgroud)
在我的实际代码中,我使用model.evaluate().在evaluate()中,是否为每个数据样本隐式调用reset_states?
model.evaluate(dataX, dataY)
Run Code Online (Sandbox Code Playgroud) 我注意到很多数据加载器使用 PIL 来加载和转换图像,例如 torchvision.datasets.folder 中的数据集构建器。
我的问题是:为什么要使用 PIL?在将其转换为张量之前,您需要执行 np.asarray 操作。OpenCV 似乎直接将它加载为一个 numpy 数组,而且速度也更快。
我能想到的一个原因是因为 PIL 有一个丰富的转换库,但我觉得其中几个转换可以快速实现。
在 Ubuntu 13.10 上安装 buildozer 并不容易。我重新安装了 Ubuntu 几次,现在我想分享一下我是如何安装 buildozer 的。
我从 buildozer 收到以下错误:
我正在尝试训练一个网络,但我得到了,我将批量大小设置为 300,并且收到此错误,但即使我将其减少到 100,我仍然收到此错误,更令人沮丧的是,在 ~1200 个图像上运行 10 epoch大约需要 40 分钟,请提出问题所在以及如何加快该过程!任何提示都会非常有帮助,提前致谢。
---------------------------------------------------------------------------
RuntimeError Traceback (most recent call last)
<ipython-input-31-3b43ff4eea72> in <module>()
5 labels = Variable(labels).cuda()
6
----> 7 optimizer.zero_grad()
8 outputs = cnn(images)
9 loss = criterion(outputs, labels)
/usr/local/lib/python3.5/dist-packages/torch/optim/optimizer.py in zero_grad(self)
114 if p.grad is not None:
115 if p.grad.volatile:
--> 116 p.grad.data.zero_()
117 else:
118 data = p.grad.data
RuntimeError: cuda runtime error (2) : out of memory at /pytorch /torch/lib/THC/generic/THCTensorMath.cu:35`
Run Code Online (Sandbox Code Playgroud)
即使我的 GPU 是免费的
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.111 Driver Version: 384.111 | …
Run Code Online (Sandbox Code Playgroud) 我们可以使用张量流层构建模型。有什么方法可以像 Keras 中那样显示模型摘要。
我想理解为什么当我们为像 GAN 这样的神经网络定义类时,我们将 torch.nn.Module 作为参数传递
import torch
import torch.nn as nn
class Generator(nn.Module):
def __init__(self, input_size, hidden_size, output_size, f):
super(Generator, self).__init__()
self.map1 = nn.Linear(input_size, hidden_size)
self.map2 = nn.Linear(hidden_size, hidden_size)
self.map3 = nn.Linear(hidden_size, output_size)
self.f = f
Run Code Online (Sandbox Code Playgroud) 多次复制 PyTorch 代码时出现此错误:
NameError: name 'nn' is not defined
Run Code Online (Sandbox Code Playgroud)
有什么不见了?什么是nn
?
重现:
class SLL(nn.Module):
"single linear layer"
def __init__(self):
super().__init__()
self.l1 = nn.Linear(10,100)
def forward(self)->None:
print("SLL:forward")
m1 = SLL()
Run Code Online (Sandbox Code Playgroud) 我想知道 PyTorch Parameter 和 Tensor 之间的区别?
现有答案适用于使用变量的旧 PyTorch?