欢迎访问书画村
首页我的超级黑科技帝国 第六百三十三章

第六百三十三章


推荐阅读: 天经地义系统改天换地之破规则新朝外传疾泪痣道医无双都市九州修真烧菜赚钱来抽奖重生之至高主神万能兑换码开局一只讨饭碗100次轮回我的绝色总裁老婆全文免费阅读

对于这个神经网络的训练过程,就是要确定这11935个参数。

训练的目标可以粗略概括为:对于每一个训练样本,对应的输出无限接近于1,而其它输出无限接近于0。

根据chaelnielsen给出的实验结果,以上述网络结构为基础,在未经过调优的情况下,可以轻松达到95的正确识别率。而核心代码只有74行!

在采用了深度学习的思路和卷积网络convolutionanist数据集达到的历史最佳成绩是99.79的识别率,是由liatthewzeiler,sixinzhang,yannlecun,和robfergus在2013年做出的。

考虑到这个数据集里还有一些类似如下这样难以辨认的数字,这个结果是相当惊人的!它已经超越了真正人眼的识别了。

在这个过程中一步步调整权重和偏置参数的值,就必须引入梯度下降算法gradientdescent。

在训练的过程中,我们的神经网络需要有一个实际可行的学习算法,来逐步调整参数。

而最终的目的,是让网络的实际输出与期望输出能够尽量接近。我们需要找到一个表达式来对这种接近程度进行表征。这个表达式被称为代价函数costfunction

x表示一个训练样本,即网络的输入。其实一个x代表784个输入。

yx表示当输入为x的时候,期望的输出值;而a表示当输入为x的时候,实际的输出值。yx和a都分别代表10个输出值以数学上的向量来表示。而它们的差的平方,就表征了实际输出值和期望输出值的接近程度。越接近,这个差值就越小。

n是训练样本的数量。假设有5万个训练样本,那么n就是5万。因为是多次训练,所以要除以n对所有训练样本求平均值。

cw,b的表示法,是把costfunction看成是网络中所有权重w和偏置b的函数。为什么这样看呢?进行训练的时候,输入x是固定的训练样本,不会变。在认为输入不变的情况下,这个式子就可以看成是w和b的函数。那么,式子右边的w和b在哪呢?实际上,在a里面。yx也是固定值,但a是w和b的函数。

总结来说,cw,b表征了网络的实际输出值和期望输出值的接近程度。越接近,cw,b的值就越小。因此,学习的过程就是想办法降低cw,b的过程,而不管cw,b的表达形式如何,它是w和b的函数,这就变成了一个求函数最小值的最优化问题。

由于cw,b的形式比较复杂,参数也非常多,所以直接进行数学上的求解,非常困难。

为了利用计算机算法解决这一问题,计算机科学家们提出了梯度下降算法gradientdescent。

这个算法本质上是在多维空间中沿着各个维度的切线贡献的方向,每次向下迈出微小的一步,从而最终抵达最小值。

由于多维空间在视觉上无法体现,所以人们通常会退到三维空间进行类比。当cw,b只有两个参数的时候,它的函数图像可以在三维空间里呈现。

就好像一个小球在山谷的斜坡上向下不停地滚动,最终就有可能到达谷底。这个理解重新推广到多维空间内也基本成立。

而由于训练样本的数量很大上万,几十万,甚至更多,直接根据前面的cw,b进行计算,计算量会很大,导致学习过程很慢。

、于是就出现了随机梯度下降stochasticgradientdescent算法,是对于梯度下降的一个近似。

在这个算法中,每次学习不再针对所有的训练集,而是从训练集中随机选择一部分来计算cw,b,下一次学习再从剩下的训练集中随机选择一部分来计算,直到把整个训练集用光。然后再不断重复这一过程。

深度神经网络具有多个hiddenlayer比浅层神经网络有更多结构上的优势,它有能力从多个层次上进行抽象。

从上个世纪八九十年代开始,研究人员们不断尝试将随机梯度下降算法应用于深度神经网络的训练,但却碰到了梯度消失vanishinggradient或梯度爆发explodinggradient的问题,导致学习过程异常缓慢,深度神经


相关章节: 第六百二十八章第六百二十九章第六百三十章第六百三十一章第六百三十二章第六百三十四章第六百三十五章第六百三十六章第六百三十七章第六百三十八章

也许你还喜欢: 我的超级黑科技帝国免费阅读我的超级黑科技帝国123我的超级黑科技帝国起点我的超级黑科技帝国TXT我!黑科技之王楚易我的超级黑科技帝国笔趣阁都市之黑科技帝国都市之学霸科技地球黑科技系统重生之科技推演都市之科技帝国大科技帝国我的超级黑科技帝国我的超级黑科技帝国TXT下载带着外星科技闯都市都市之制霸黑科技科技位面网我的超级黑科技帝国 小说免费我的超级黑科技帝国 萌主天下无敌我的超级黑科技帝国123读