QQ:574461795
您当前的位置:首页 > 理工学 > 计算机 > 正文

一种基于PSO的BP神经网络训练方法

摘  要  基于粒子群优化的算法具有全局随机搜索最优解的特点。本文尝试把PSO算法和神经网络权值训练的常用算法BP算法结合起来进行数据的训练,实现对一组数据的训练,并对结果与BP算法的训练结果进行了对比,得到了较好的效果。     关键词  神经网络;反向传播算法;PSO算法;适应度函数     人工神经网络是由人工神经元互连而成的网络,它从微观结构和功能上实现对人脑的抽象和简化,具有许多优点。对神经网络的权值系数的确定,传统上采用反向传播算法(BP算法)。BP网络是一种多层前向反馈神经网络,BP算法是由两部分组成:信息的正向传递与误差的反向传播。在反向传播算法中,对权值的训练采用的是爬山法(即:δ算法)。这种方法在诸多领域取得了巨大的成功,但是它有可能陷入局部最小值,不能保证收敛到全局极小点。另外,反向传播算法训练次数多,收敛速度慢,使学习结果不能令人满意。    粒子群优化算法(Particle Swarm Optimizer,PSO)是一种进化计算技术(evolutionary computation)。源于对鸟群捕食的行为研究,PSO中,每个优化问题的解都是搜索空间中的一只鸟,我们称之为粒子。所有的粒子都有一个由被优化的函数决定的适应值(fitness value),每个粒子还有一个速度决定他们飞翔的方向和距离。然后粒子们就追随当前的最优粒子在解空间中搜索。如果用粒子群算法对神经网络的权值进行训练,会得到较快的收敛速度,而且可以避免局部最值得出现。研究表明PSO 是一种很有潜力的神经网络算法。    本文提出了一种基于PSO算法的BP网络学习算法,并通过MATLAB7.0实现对一组简单的向量进行训练对PSO—BP算法和BP算法进行了对比,试验结果说明PSO—BP算法适合训练BP网络,并且也有希望应用于其他种类的前向网络的训练。1  PSO算法    PSO中,每个优化问题的解都是搜索空间中的一只鸟。我们称之为“粒子”。所有的例子都有一个由被优化的函数决定的适应值(fitness value),每个粒子还有一个速度决定它们飞翔的方向和距离。然后粒子们就追随当前的最优粒子在解空间中搜索。    D维搜索空间中,有m个粒子,其中第i个粒子的位置是 ,m,其速度为 。将 带入目标函数可计算出适应值。记第i个粒子搜索到的最优位置为 ,整个粒子群搜索到的最优位置为 。离子状态更新操作为:

其中,i=1,2…,m, d=1,2…,D; 是非负常数,称为惯性因子。 也可以随着迭代线性减小;学习因子 , 是非负常数;r1 ,r2 是介于[0,1]之间的随机数;是常数。    迭代中止条件一般选为最大迭代次数和粒子群迄今为止搜索到的最有位置满足适应阈值。2  基于PSO的BP网络学习算法    BP网络是一种多层结构的前向网络,其隐层神经元的激活函数为S型函数,而输出神经元的激活函数可以是S型函数,也可以实线性函数,典型的S型函数为:             (3)

其中:s为神经元的加权输入函数。    用PSO算法训练BP网络时,定义粒子群的位置向量 的元素是BP网络的全体连接权和阈值。首先初始化位置向量 ,然后用PSO算法搜索最优位置,使如下均方误差指标(适应值)达到最小           (4)    其中,N是训练集的样本数; 是第i个样本的第j个网络输出节点的理想输出值; 是第i个样本的第j个网络输出节点的实际输出值;C是网络输出神经远的个数。基于PSO算法的BP网络学习算法流程如下:    1) 选定粒子数m;适应值阈值  ε;最大允许迭代步数 ; 、 和 ;初始化X和V为(0,1)间的随机数。            8) end for     9) for i=1:1:m    10) 按式(1)计算 ;按式(2)计算 ;    11) end for    12) end while     13) 以所得权值阈值为初始值用BP算法对网络进行训练   上述流程中,1)到12)用标准PSO算法对权值和阈值进行训练,13)对PSO输出的权值和阈值作为初始值用BP算法训练网络(MATLAB中有集成的训练函数)。另外,,其中 是第I个粒子的位置;V= ,其中 是第I个粒子的速度; 是m个粒子迄今搜索到的最优适应值,其对应的粒子位置矩阵是p= ; 是粒子群迄今搜索到的最优适应值,对应的最优粒子位置是 ,粒子数m选定为30个。3  结果分析    本实例中随机选取机输入和输出矩阵,如:p=[0 0 0 0 0;1 0 0 0 1;0 1 0 0 1; 0 0 1 0 0; 0 0 0 1 0];t=[0 0 0 0; 1 0 0 0; 0 1 0 0; 0 0 1 0; 0 0 0 1]。由于P是五行的矩阵,所以网络输入层的神经元个数为:5个,T为五行矩阵,故输出层神经元个数为:5个 ,隐含层神经元个数为:6个。    首先观察一下PSO算法中的适应值(fitness)的变化过程,图1中,实线表示适应值的平均值,虚线表示是最优适应值。从图中可以看出适应值迅速的选择过程。

图1  fitness的变化过程曲线    图2为用PSO—BP算法和BP算法在训练误差精度为0.002的情况下的误差演化曲线:(a)为PSO—BP算法训练误差演化曲线,所用时间是20.422000s。(b)为常用BP算法训练误差演化曲线,对权值的训练采用的是梯度下降法,所用时间是27.172000s。从图中可以看到:PSO—BP算法的迭代次数远远小于BP算法,并且训练时间也缩短了。

(a)

(b)图2     为了充分说明实验结果,笔者做了多次反复实验,实验结果如下表:在训练误差精度为0.002的情况下,十次试验中PSO—BP算法的平均迭代次数远小于BP算法,收敛时间较接近。算法次数BP算法PSO—BP算法迭代次数收敛时间迭代次数收敛时间1158735.79700071719.5470002105123.17200079433.390000391718.28100068327.813000480916.28200087933.2650005132333.125000109730.2180006214643.76600093126.0460007116123.64100056817.391000853014.68700073625.7820009141526.75000086927.62500010122724.17200095329.422000平均值1216.625.967300822.727.04990

4  结论    本次试验中对BP算法和PSO—BP算法进行了对比试验,试验结果证明:PSO—BP算法优于BP算法。具体表现在:学习算法的收敛速度有所提高;BP算法中的局部极小问题常令学习结果不满意,PSO的全局优化能力使问题得到解决。参考文献[1]Martin T.Hagan , Howard B.Demuth, Mark H.Beale,著,戴葵,等译.《神经网络设计》.机械工业出版社,2002年9月[2]徐丽娜 编著.《神经网络控制》.电子工业出版社,2003年2月[3]高隽 编著.《人工神经网络原理及仿真实例》.机械工业出版社,2003年8月[4]Zbigniew Michalewicz ,David B.Fogel 著,曹宏庆,李艳,董红斌,吴志健,译.《如何求解问题——现代启发式方法》.中国水利水电出版社,2003年2 月[5]阳明盛,熊西文,林建华,编著.《MATLAB基础及数学软件》.大连理工大学出版社,2003年8月[6]Tom M.Mitchell,著,曾华军,张银奎 等译.《机器学习》.机械工业出版社,2003年1月

相关内容推荐