numpy.random.rand和之间有什么区别numpy.random.randn?
从文档中,我知道它们之间的唯一区别来自每个数字的概率分布,但总体结构(维度)和使用的数据类型(浮点数)是相同的.由于相信这一点,我很难调试神经网络.
具体来说,我试图重新实现Michael Nielson在神经网络和深度学习书中提供的神经网络.原始代码可以在这里找到.我的实现与原始实现相同,除了我numpy.random.rand在init函数中定义和初始化权重和偏差,而不是numpy.random.randn在原始中.
但是,我random.rand用于初始化的代码weights and biases不起作用,因为网络不会学习,权重和偏差也不会改变.
两个随机函数之间的差异会导致这种奇怪吗?
我想问一下有没有什么办法可以在Java中写一个while循环,在循环中也有主计数器,也就是说当你退出循环时,计数器变量也会被销毁。
例如,当我们退出这个循环时:
for (int i = 0; i < 10; i++) {
//do something
}
Run Code Online (Sandbox Code Playgroud)
变量 i 也被销毁,从而保持代码干净。
但是对于while循环,我们必须在循环本身之外创建一个计数器变量;因此,当循环退出时,计数器变量仍然存在于主程序中。
int counter = 0;
while (counter < 10) {
counter++;
}
counter--; //we can still manipulate the counter variable here
Run Code Online (Sandbox Code Playgroud)
我想问的是:有没有办法将计数器变量放在while循环本身中,例如:
while ( (int i = 0) < 10 ) {
counter++;
}
Run Code Online (Sandbox Code Playgroud)