写点什么

BP 神经网络(算法整体思路及原理 + 手写公式推导)

作者:秃头小苏
  • 2022 年 7 月 06 日
  • 本文字数:978 字

    阅读完需:约 3 分钟

1. 简介

BP(back propagation)神经网络是 1986 年由 Rumelhart 和 McClelland 为首的科学家提出的概念,是一种按照误差逆向传播算法训练的多层前馈神经网络,是应用最广泛的神经网络。BP 网络是在输入层与输出层之间增加若干层(一层或多层)神经元,这些神经元称为隐单元,它们与外界没有直接的联系,但其状态的改变,则能影响输入与输出之间的关系,每一层可以有若干个节点。

2. 计算过程

首先,我们先来了解一下神经网络图示基本含义:



上图为神经网络的一部分,x1,x2,x3 为外部输入,w1,w2,w3 为这些输入的权重(表示这些输入的重要程度)。后面的大⚪相当与一个神经元,其中∑ = x1w1 + x2w2 + x3w2 - β ( β为偏置) ,y = f(∑) ,f 为激活函数,最常见激活函数是 Sigmoid 函数,其图像及表达式如下图所示(本文后面所有激活函数都为 Sigmoid 函数)



了解了神经元图示的基本含义,现在来说一下 BP 神经网络的整体流程如下:



我们以下图为例讲述 BP 神经网络实现流程:首先神经网络一共有三部分组成:输入层、隐藏层、输出层(其中隐藏层可以有多层,本图中只有一层)。图中输入层有两个神经元、隐藏层有三个神经元、输出层有一个神经元。我们通过计算可以得出ŷ的值(后文会有详细计算过程),这就是我们根据所给数据得到的输出结果,我们需要和输出的预期结果进行比较,如果发现两个结果十分符合,那么表示我们所设置的期望和偏置是较优的,不需要进行修改(注:图中的期望 w、v、β、λ都是我们自己事先设置的数值);如果发现两个结果相差较大,这表面我们事先设置的参数不合适(w、v、β、λ),需要进行修改。这时候我们需要从后往前的算出这些参数的的变化量,然后更新参数的数值,重新计算输出,直到得到的输入结果和预期相符停止。


3. 权重偏置更新公式推导

同样的,我们以这张图为例来推导权重(w、v)偏置(β、λ)更新公式。






下图为三部分整体图片(方便阅读)


4. BP 神经网络优劣势

BP 神经网络无论在网络理论还是在性能方面已比较成熟。其突出优点就是具有很强的非线性映射能力和柔性的网络结构。网络的中间层数、各层的神经元个数可根据具体情况任意设定,并且随着结构的差异其性能也有所不同。但是 BP 神经网络也存在以下的一些主要缺陷。①学习速度慢,即使是一个简单的问题,一般也需要几百次甚至上千次的学习才能收敛。②容易陷入局部极小值。③网络层数、神经元个数的选择没有相应的理论指导。④网络推广能力有限。

发布于: 刚刚阅读数: 3
用户头像

秃头小苏

关注

还未添加个人签名 2022.07.01 加入

还未添加个人简介

评论

发布
暂无评论
BP神经网络(算法整体思路及原理+手写公式推导)_7月月更_秃头小苏_InfoQ写作社区