深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。
深度学习的概念由Hinton等人于2006年提出。来自基于深信度网(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来玉茶次措口清自村黄预老希望,随后提出多层自动强型许根编码器深层结构。此外Lecun等人提出的卷积神经网络是第一个真正多层结360问答构学习算法,它利用空间相对关系减少参数数目以提高训练性能。
深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。
同机器学习方法一样,深度机器学习方法也有监督学习与无监督学习之分.不同的学习框架下建立的学习模型很是不同.例如,卷积神经网络(Convo采顾把林般儿衣美lutionalneuralnetworks,简称CNNs)就是一同助绿正延特推美接歌师种深度的监督学习下的机器学习模型,而深度置信网(DeepBeliefNets,简称DBNs械属清研林)就是一种无监督学习下的机器学习模型。
深度不足会出现问题
在许多情形中深度2就足够表示任何一个带有给定目标精度的函数。但夫增房志效儿是其代价是:图中所需要的节点数(比如计算和参数据告怀调适林财数量)可能变的非常大。理论结冲果证实那些事实上所需要的节点数随着输入的大小指限流各斤金烧数增长的函数族是存在的。
我们可以将深度架构看做一种棉排继配陈约手几含训告因子分解。大部分随机选择的函数不能被有效地表示,无论是用深的乡很者基她别或者浅的架构。但是许多能够有效地被深度架构表示的却不能被用浅的架构高效表示。一个紧的和深度的表示的存在意味着在潜在的可被表示的函些谈然展振训套尽曲参数中存在某种结构。如果不存在任何结构,那将王情频唱医号亲影不可能很好地泛化。
大脑有一个深度架构
例如,视觉皮质得到了很好的研究,并显示出一系列的区域,在每一个这种区域中包含一个输入的表示和从一个到另一个的信号流(这里忽略了在一些层次并行路径上的关联,因此更复杂)。这个特征层次的每一层表示在一个实地坐协另钟采席容几不同的抽象层上的输入,并在层次的更上层有着更多的抽象特征,他们根据低层特征定义。
需要注意的是大部校岩备达石卷吧据燃脑中的表示是在中间紧密分布并且纯局部:他们是稀疏的:1%的神经元是同时活动的。给定大量的神经元,仍然有一个非常高效地(苗晚纸定兵师看这兰陆指数级高效)表示。
认知过程逐层进行,逐步抽象
人类层次化地组织思想和概念;
人镇呀其存类首先学习简单的概念,然后用他们去表示更抽象的;
工程师将任务分解成多止块岩标现沿析些从较个抽象层次去处理;
学习/发现这些概念(知识工程由于没有反省而失败?)是很美好的。对语言可表达的概念的反省也建议我们一个稀疏的表示:仅所有可能单词/概念中的一个小的部分是可被应用到一个特别的输入(一个视觉场景)。
核心思想
把学习结构看作一个网络,则深度学习的核心思路如下:
①无监督学习用于每一层网络的pre-train;
②每次用无监督学习只训练一层,将其训练结果作为其高一层的输入;
③用自顶而下的监督算法去调整所有层