治好白癜风要多少钱 http://baidianfeng.39.net/a_yqyy/220319/10461911.html大数据文摘作品编译:田奥leo、桑桑、璐、Aileen27种?!神经网络竟有那么多种?这篇文章将逐一介绍下面这张图片中的27种神经网络类型,并尝试解释如何使用它们。准备好了吗?让我们开始吧!神经网络的种类越来越多,可以说是在呈指数级地增长。我们需要一个一目了然的图表,在这些新出现的网络构架和方法之间进行导航。幸运的是,来自Asimov研究所的FjodorvanVeen编写了一个关于神经网络的精彩图表(就是上面那张大图)。下面,我们就来逐一看看图中的27种神经网络:Perceptron感知机Perceptron感知机,我们知道的最简单和最古老的神经元模型。接收一些输入,把它们加总,通过激活函数并传递到输出层。这没什么神奇的地方。前馈神经网络(FF)前馈神经网络(FF),这也是一个很古老的方法——这种方法起源于50年代。它的工作原理通常遵循以下规则:1.所有节点都完全连接2.激活从输入层流向输出,无回环3.输入和输出之间有一层(隐含层)在大多数情况下,这种类型的网络使用反向传播方法进行训练。RBF神经网络RBF神经网络实际上是激活函数是径向基函数而非逻辑函数的FF前馈神经网络(FF)。两者之间有什么区别呢?逻辑函数将某个任意值映射到[0,...1]范围内来,回答“是或否”问题。适用于分类决策系统,但不适用于连续变量。相反,径向基函数能显示“我们距离目标有多远”。这完美适用于函数逼近和机器控制(例如作为PID控制器的替代)。简而言之,这些只是具有不同激活函数和应用方向的前馈网络。DFF深度前馈神经网络DFF深度前馈神经网络在90年代初期开启了深度学习的潘多拉盒子。这些依然是前馈神经网络,但有不止一个隐含层。那么,它到底有什么特殊性?在训练传统的前馈神经网络时,我们只向上一层传递了少量的误差信息。由于堆叠更多的层次导致训练时间的指数增长,使得深度前馈神经网络非常不实用。直到00年代初,我们开发了一系列有效的训练深度前馈神经网络的方法;现在它们构成了现代机器学习系统的核心,能实现前馈神经网络的功能,但效果远高于此。RNN递归神经网络RNN递归神经网络引入不同类型的神经元——递归神经元。这种类型的第一个网络被称为约旦网络(JordanNetwork),在网络中每个隐含神经元会收到它自己的在固定延迟(一次或多次迭代)后的输出。除此之外,它与普通的模糊神经网络非常相似。当然,它有许多变化—如传递状态到输入节点,可变延迟等,但主要思想保持不变。这种类型的神经网络主要被使用在上下文很重要的时候——即过去的迭代结果和样本产生的决策会对当前产生影响。最常见的上下文的例子是文本——一个单词只能在前面的单词或句子的上下文中进行分析。LSTM长短时记忆网络LSTM长短时记忆网络引入了一个存储单元,一个特殊的单元,当数据有时间间隔(或滞后)时可以处理数据。递归神经网络可以通过“记住”前十个词来处理文本,LSTM长短时记忆网络可以通过“记住”许多帧之前发生的事情处理视频帧。LSTM网络也广泛用于写作和语音识别。存储单元实际上由一些元素组成,称为门,它们是递归性的,并控制信息如何被记住和遗忘。下图很好的解释了LSTM的结构:上图的(x)是门,他们拥有自己的权重,有时也有激活函数。在每个样本上,他们决定是否传递数据,擦除记忆等等-你可以在这里(
转载请注明:
http://www.aideyishus.com/lktp/5900.html