当前位置: 编码机 >> 编码机优势 >> 资源从反向传播到迁移学习,盘点人工智
选自Mdium
作者:JamsL
机器之心编译
参与:刘晓坤、黄小天、蒋思源
近日,软件工程师JamsL在Mdium上发表了一篇题为《Th10DpLarningMthodsAIPractitionrsNdtoApply》的文章,从反向传播到最大池化最后到迁移学习,他在文中分享了主要适用于卷积神经网络、循环神经网络和递归神经网络的10大深度学习方法。机器之心对本文进行了编译,原文链接请见文末。
过去十年来,人们对机器学习兴趣不减。你几乎每天都会在计算机科学程序、行业会议和华尔街日报上看到机器学习。对于所有关于机器学习的讨论,很多人把机器学习能做什么与希望其做什么混为一谈。从根本上说,机器学习就是使用算法从原始数据中提取信息,并通过模型进行实现。我们使用这个模型来推断我们尚未建模的其他数据。
神经网络属于机器学习模型的一种,已出现50多年,其基本单元即受到哺乳动物大脑中生物神经元启发的非线性变换节点。神经元之间的连接也是仿效生物大脑,并在时间中通过训练推移发展。
年代中期和年代早期,神经网络的很多重要架构取得重大进展。然而,获得良好结果所需的时间和数据量却阻碍了其应用,因此人们一时兴趣大减。年早期,计算能力呈指数级增长,业界见证了之前不可能实现的计算技术的「寒武纪爆炸」。深度学习作为该领域的一个重要竞争者是在这个十年的爆炸性计算增长中脱颖而出,它赢得了许多重要的机器学习竞赛。深度学习的热度在年达到峰值,你在机器学习的所有领域都可以看到深度学习。
为了深入了解这一热潮,我学习了Udacity的深度学习课程,它很好地介绍了深度学习的起源,以及通过TnsorFlow从复杂和/或大型数据集中学习的智能系统的设计。对于课程项目,我使用和开发了带有卷积的图像识别神经网络,带有嵌入表征的NLP神经网络和带有RNN和LSTM的基于字符的文本生成神经网络。所有的JupitrNotbook代码可参见:
转载请注明:http://www.aideyishus.com/lkgx/1063.html