神经网络:输入层是否包含神经元?

Som*_*ing 6 machine-learning neural-network

我目前正在研究神经网络理论,并且发现到处都有它由以下几层组成:

  • 输入层
  • 隐藏层
  • 输出层

我看到一些图形描述将输入层显示为网络中的真实节点,而另一些图形描述将该层显示为值[x1,x2,... xn]的向量

正确的结构是什么?

“输入层”是神经元的真实层吗?还是将其抽象地命名为图层,而实际上只是输入向量?

添加我在网上发现的矛盾和混乱的照片:

在这里看起来输入层由神经元组成: 屏幕截图

在这里,看起来输入层只是一个输入向量: 屏幕截图

run*_*run 6

“输入层”是真正的神经元层吗?或者这只是抽象地命名为层,而它实际上只是输入向量?

是的,两者都是——取决于抽象。在纸面上,网络有输入神经元。在实现级别上,您必须组织这些数据(通常使用数组/向量),这就是您谈到输入向量的原因:

输入向量保存输入神经元值(代表输入层)。

如果您熟悉图论或图像处理的基础知识 - 这是相同的原理。例如,您可以将图像称为矩阵(技术视图)或像素域(更抽象的视图)。


vik*_*sit 2

让我用一些数学符号来回答你的问题,这比随机图像更容易理解。首先,记住感知器。

感知器的任务是找到一个决策函数,将给定集合中的一些点分为 n 个类别。所以,对于一个函数

f : R^n -> R , f(X) = <W, X> + b
Run Code Online (Sandbox Code Playgroud)

其中 W 是权重向量,X 是点向量。例如,如果您有一条由方程定义的线3x + y = 0,则 W 为(3,1)且 X 为(x,y)

神经网络可以被认为是一个图,其中图的每个顶点都是一个简单的感知器 - 也就是说,网络中的每个节点只不过是一个函数,它接受一些值并输出一个新值,然后可以使用它为下一个节点。在你的第二张图片中,这将是两个隐藏层。

那么这些节点需要什么作为输入呢?一组 W 和 X - 权重和点向量。x0, x1, .. xn在你的图像中由和表示w0, w1, .. wn

最终,我们可以得出结论,神经网络需要运行的是一组权重和点的输入向量。

我给你的总体建议是选择一个学习来源并坚持下去,而不是在互联网上浏览相互矛盾的图像。

  • +1的解释。就我个人而言,我不同意你的最后一段。我认为从多个来源获取信息是个好主意。如果你只读过一位作者对某一主题的看法,你就不能真正声称自己对它完全满意。有时你对某些来源的理解比其他来源更好,所以我发现在不同来源之间来回切换并尝试在它们之间建立联系是很好的。 (5认同)
  • @IVlad - 我很欣赏您的反馈。澄清一下,我的评论仅限于在互联网上从不同来源查看相同概念的图像的操作点。不同的作者用不同的文字解释他们的图像,当你用谷歌搜索“神经网络”时,并不是所有的文字都可以访问到。我并不是说它应该_只有_一个来源 - 你可以读 10 本书,但在它们之间混合文本/图像总是会出现问题。也许我可以更好地表达它。 (2认同)