use*_*099 2 convolution deep-learning
我对AlexNet和VGG非常了解.我可以使用各自论文中提交的内容验证每个层中使用的参数数量.
然而,当我尝试在GoogleNet论文"深入研究"时也做同样的事情,即使经过多次迭代,我也无法验证他们在论文"表1"中的数字.
例如,第一层是旧的普通卷积层,内核大小(7x7),映射输入数3,映射输出数为64.因此根据这一事实,所需参数的数量为(3*49*64)+ 64(偏差),大约9.5k,但他们说他们使用2.7k.我也为其他图层做了数学计算,而且我总是比他们报告的数字百分之几.任何的想法?
谢谢
我认为第一行(2.7k)是错误的,但表格的其余部分是正确的.
这是我的计算:http: //i.stack.imgur.com/4bDo9.jpg

注意检查哪个输入连接到哪个层,例如层"inception_3a/5x5_reduce":
input = "pool2/3x3_s2" with 192 channels
dims_kernel = C*S*S =192x1x1
num_kernel = 16
Run Code Online (Sandbox Code Playgroud)
因此该层的参数大小= 16*192*1*1 = 3072
| 归档时间: |
|
| 查看次数: |
3534 次 |
| 最近记录: |