如何计算GoogLe Net的参数数量?

use*_*099 2 convolution deep-learning

我对AlexNet和VGG非常了解.我可以使用各自论文中提交的内容验证每个层中使用的参数数量.

然而,当我尝试在GoogleNet论文"深入研究"时也做同样的事情,即使经过多次迭代,我也无法验证他们在论文"表1"中的数字.

例如,第一层是旧的普通卷积层,内核大小(7x7),映射输入数3,映射输出数为64.因此根据这一事实,所需参数的数量为(3*49*64)+ 64(偏差),大约9.5k,但他们说他们使用2.7k.我也为其他图层做了数学计算,而且我总是比他们报告的数字百分之几.任何的想法?

谢谢

use*_*322 5

我认为第一行(2.7k)是错误的,但表格的其余部分是正确的.

这是我的计算:http: //i.stack.imgur.com/4bDo9.jpg

我的计算

注意检查哪个输入连接到哪个层,例如层"inception_3a/5x5_reduce":

 input = "pool2/3x3_s2" with 192 channels
 dims_kernel = C*S*S =192x1x1
 num_kernel = 16 
Run Code Online (Sandbox Code Playgroud)

因此该层的参数大小= 16*192*1*1 = 3072