深度学习公式推导(3):初探神经网络
经过上节的讲述我们能够理解输入 x、权重 w、偏置 b (-θ)之间的关系,如下图所示:
公式中的 n 代表有 n 个输入项,因此所有的输入值最终等于 z,之前我们通过 u(z) 的函数得到的结果 y,0 或者 1 。为了获取 y 点火的概率,我们使用了 激活函数 a(z) ,激活函数的目的是表示 y 点火的概率是多少,如果结果靠近 1 就是点火的可能性较大,否则就认为可能性较小。
并且得出了激活函数的最终结果就好像两个向量求内集如下:
神经元网络
有了神经元的概念打底再来看看多个神经元形成的网络,每个神经元既可以发送信号,又可以接受信号,如果将信号发出的方向画一条带箭头的先,箭头的方向指向其他的神经元,那么我们就可以画出如下的一个网络图。
如上图所示,多个神经元构成了网络,同时在同一个级别的神经元还形成了“层,”包括输入层、隐藏层、输出层,其中隐藏层也被称为中间层。各层分别执行特定的信号处理操作。输入层负责读取给予神经网络的信息。属于输入层的神经单元只是将从数据(信号)得到的值原样输出给下一层。隐藏层的神经单元会接受信号,通过 a(z) 激活函数得到 y 作为输出信号传递给下一层的神经网络。图中可以看出存在两层隐藏层,在实际情况中,可能存在多层隐藏层用来特征的抽取,具体操作后面的章节会提到。如此周而复始,直到将信号通过输出层给到使用者。
深度学习,就是叠加了很多层的神经网络,将从输入层输入的数据通过隐藏层的层层加工,最后通过输出层输出。
输入层
假设有一张图片,我们用一个 12 个神经元组成的输入层,每个神经元代表一个像素,图片本身只有黑白两种像素。
如上图所示 x1、x2 ... x12 表示 12 个像素,只有黑白两种像素。x 本身就表示是黑还是白, w1、w2.... w12 就表示像素的“靠谱度”,有可以理解为黑色像素的权值,由于图片是手写文字在图像级别的抽象,所以在每个像素点的黑色素并非完美的黑色,因此需要设置这个权值。b 对于 (-θ)的替代品,也就是是否为数字的阀值。于是得到如下输入公式:
如上图所示,得到输入的值,再通过 a(z) 的激活函数可以获得,图像结果是 “1” 的概率 ,从上图来看是数字“1” 的概率会高一些。
版权声明: 本文为 InfoQ 作者【崔皓】的原创文章。
原文链接:【http://xie.infoq.cn/article/ff1d3a76497f9e48e76b9a4e0】。文章转载请联系作者。
评论