神经网络-深度自动编码器和堆叠式自动编码器之间的区别

Ric*_*ccB 5 machine-learning neural-network autoencoder deep-learning

免责声明:我也将此问题发布在CrossValidated上,但没有得到任何关注。如果不是这个地方,我很乐意将其删除。

据我了解,它们之间的唯一区别是两个网络的训练方式。深度自动编码器的培训方式与单层神经网络相同,而堆叠式自动编码器则采用贪婪的逐层方法进行培训。雨果·拉罗谢尔(Hugo Larochelle)在此视频的评论中证实了这一点。我想知道这是否是唯一的区别,是否有任何指针?

Max*_*xim 6

该领域的术语不是固定的、剪裁良好的、定义明确的,不同的研究可能意味着不同的事物或为相同的术语添加不同的方面。示例讨论:

至于 AE,根据各种消息来源,深度自动编码器堆叠自动编码器完全相同的同义词,例如,这里引用了“Hands-On Machine Learning with Scikit-Learn and TensorFlow”

就像我们讨论过的其他神经网络一样,自编码器可以有多个隐藏层。在这种情况下,它们被称为堆叠自编码器(或深度自编码器)。

稍后,作者讨论了训练自动编码器的两种方法,并交替使用这两个术语。

我同意术语“堆叠”的看法是自动编码器可以在不重新训练的情况下扩展新层,但这实际上是正确的,无论现有层是如何训练的(联合或单独训练)。同样无论训练方法如何,研究可能会或可能不会称之为足够深。所以我不会过多关注术语。它可以在某一天稳定下来,但不是现在。