Som*_*ing 6 machine-learning neural-network
我目前正在研究神经网络理论,并且发现到处都有它由以下几层组成:
我看到一些图形描述将输入层显示为网络中的真实节点,而另一些图形描述将该层显示为值[x1,x2,... xn]的向量
正确的结构是什么?
“输入层”是神经元的真实层吗?还是将其抽象地命名为图层,而实际上只是输入向量?
添加我在网上发现的矛盾和混乱的照片:
在这里看起来输入层由神经元组成:

在这里,看起来输入层只是一个输入向量:

“输入层”是真正的神经元层吗?或者这只是抽象地命名为层,而它实际上只是输入向量?
是的,两者都是——取决于抽象。在纸面上,网络有输入神经元。在实现级别上,您必须组织这些数据(通常使用数组/向量),这就是您谈到输入向量的原因:
输入向量保存输入神经元值(代表输入层)。
如果您熟悉图论或图像处理的基础知识 - 这是相同的原理。例如,您可以将图像称为矩阵(技术视图)或像素域(更抽象的视图)。
让我用一些数学符号来回答你的问题,这比随机图像更容易理解。首先,记住感知器。
感知器的任务是找到一个决策函数,将给定集合中的一些点分为 n 个类别。所以,对于一个函数
f : R^n -> R , f(X) = <W, X> + b
Run Code Online (Sandbox Code Playgroud)
其中 W 是权重向量,X 是点向量。例如,如果您有一条由方程定义的线3x + y = 0,则 W 为(3,1)且 X 为(x,y)。
神经网络可以被认为是一个图,其中图的每个顶点都是一个简单的感知器 - 也就是说,网络中的每个节点只不过是一个函数,它接受一些值并输出一个新值,然后可以使用它为下一个节点。在你的第二张图片中,这将是两个隐藏层。
那么这些节点需要什么作为输入呢?一组 W 和 X - 权重和点向量。x0, x1, .. xn在你的图像中由和表示w0, w1, .. wn。
最终,我们可以得出结论,神经网络需要运行的是一组权重和点的输入向量。
我给你的总体建议是选择一个学习来源并坚持下去,而不是在互联网上浏览相互矛盾的图像。