你可能对不同的神经网络结构有点熟悉。你可能听说过前馈神经网络,CNNs,RNNs,这些神经网络对于解决诸如回归和分类之类的监督学习任务非常有用。但是,在无监督学习领域,我们面临着大量的问题,如降维、特征提取、异常检测、数据生成、增强以及噪声抑制等。对于这些任务,我们需要特殊的神经网络的帮助,这些神经网络是专门为无监督学习任务而开发的。因此,他们必须能够在不需要监督的情况下训练出来。其中一种特殊的神经网络结构是自编码器。自编码器什么是自编码器?自编码器是一种神经网络结构,它由两个子网络组成,即编码和解码网络,它们之间通过一个潜在空间相互连接。自编码器最早由杰弗里·辛顿(GeoffreyHinton)和PDP小组在20世纪80年代开发。Hinton和PDP小组的目标是解决“没有教师的反向传播”问题,即无监督学习,将输入作为教师。换句话说,他们只是简单地将特征数据用作特征数据和标签数据。让我们仔细看看自编码器是如何工作的!自编码器体系结构自编码器由一个编码器网络组成,该网络接收特征数据并对其进行编码以适应潜在空间。解码器使用该编码数据(即代码)将其转换回特征数据。在编码器中,模型学习的是如何有效地编码数据,以便解码器能够将其转换回原始数据。因此,自编码器训练的关键是生成一个优化的潜在空间。现在,要知道在大多数情况下,潜在空间中的神经元数量要比输入层和输出层小得多,但不一定要这样。有不同类型的自编码器,如欠完备、过完备、稀疏、去噪、压缩和变分自编码器。在本教程中,我们只
转载请注明:
http://www.aideyishus.com/lkyy/5899.html