-----------------------------------Docin Choose -----------------------------------豆 丁 推 荐
精 品 文 档
The Best Literature----------------------------------The Best Literature
文章编号:1007-7294(2007)01-0136-07
基于L-M贝叶斯正则化方法的
BP神经网络在潜艇声纳部位
自噪声预报中的应用
吴方良,石仲堃,杨向晖,王建
(华中科技大学交通学院,武汉430074)
摘要:基于L-M贝叶斯正则化方法使BP神经网络在推广能力、收敛速度和逼近精度上能够获得很大的
提高。文中将BP神经网络和L-M贝叶斯正则化算法相结合用于潜艇声纳部位自噪声预报。分析了影响声纳部位自噪声的各种参数。利用潜艇声纳实测数据进行网络训练,训练好的神经网络可以对潜艇声纳部位自噪声进行精确预报。
关键词:声纳自噪声;BP神经网络;贝叶斯正则化
中图分类号:文献标识码:A
Submarinesonarself-noiseforecastbaseonBP
neuralnetworkandL-MBayesian
Regularizationalgorithm
WUFang-liang,SHIZhong-kun,YANGXiang-hui,WANGJian(CollegeofTrafficScience&Engineering,HuazhongUniversityofScienceandTechnology,Wuhan430074,China)
Abstract:L-M(Levenberg-Marquart)BayesianRegul
arizationalgorithmiscombinedwithBack-Propaga-tionneuralnetworktoconducetobettergeneralizationandfasterspeedofconvergence,andhigherlearningaccuracycanbeacquiredwhenmultipleparametersandlargepatternsareinputted.Inthispaper,BayesianRegularizationalgorithmandBPneuralnetworkwerecombinedtoforecastsubmarinesonarself-noise.Allkindsofparametersthathavefunctiontosubmarinesonarself-noisewereanalyzed.Actualdatawereuti-lizedtotrainBPneuralnetworkthatcanbeusedtoaccuratelyforecastsubmarinesonarself-noise.
Keywords:sonarself-noise;BPneuralnetwork;BayesianRegularizationalgorithms
1前言
潜艇声纳部位自噪声是指安装在潜艇声纳平台区的水听器接收到的噪声。声纳的被动探测距离除受目标
及介质因素影响之外,主要受本身自噪音的影响。降低自噪声可以提高声纳的检测能力,增大声纳的作用距离,因此降低声纳部位自噪声具有隐蔽自己和先敌发现的双重意义。声纳部位自噪声的预报除了定量地估算自噪声的量级大小以外,还有深一层的意义,就是通过预报掌握不同噪声源对自噪声贡献的大小,确定控制自噪声的措施及其量化的技术指标。
收稿日期:2006-04-06
作者简介:吴方良(1975-),男,华中科技大学交通学院博士研究生。
寻求满足工程精度要求的潜艇自噪声新预报方法,是潜艇声隐身研究中的一个重要问题。本文将应用BP神经网络技术寻求潜艇声纳部位自噪声预报方法,神经网络理论的最大优点是可以不问函数的具体性质,只要有足够的训练样本,就可以通过数学逼近映射实现以任意精度逼近任意函数。在当前还不能用理论和数值方法准确预报潜艇自噪声情况下,可以运用声纳实测数据进行神经网络训练,建立一种具有足够工程精度的潜艇噪声预报方法。至于训练样本,各类潜艇已积累了许多实测数据资料,加以分类整理,可以获得足够的训练样本。
本文应用L-M贝叶斯正则化算法改进BP算法,分析影响声纳部位自噪声的各种参数,建立自噪声预报的关联方程,通过整理大量的实艇测试数据,对神经网络进行训练。训练好的神经网络能够迅速而精确地对潜艇各种航行状态的自噪声进行预报。
2贝叶斯正则化的LMBP神经网络算法
2.1基本的BP算法
BP神经网络通常由输入层、
输出层和若干隐含层构成,根据Kplmogorov定理[5],只有一个隐层的三层BP网络(见图1)就可以实现对任意函数的逼近。每层由若干个结点组成,每一个结点表示一个神经元,上层结点与下层结点之间通过权联接,同一层结点之间没有联系。
BP神经网络的学习过程由两部分组成:
正向传播和反向传播。当正向传播时,输入信息经输入层、隐含层的神经元逐层处理,向前传播到输出层,给出结果。如果在输出层得不到期望输出,则转入逆向传播过程,将误差信号沿原来的神经元连接通路返回。在返回过程中,通过修改各层神经元间的联接权值,使误差减少,然后再转入正向传播过程,反复迭代,直到误差小于给定的值为止。具体的算法过程参见文献[1,2]。
2.2用L-M贝叶斯正则化方法对BP网络进行改进
BP神经网络具有逼近任意连续函数和非线性映射的能力,能模拟任意的非线性输入输出关系。
但它也存在推广能力差、学习收敛速度慢、容易陷入局部极小点而无法得到全局最优解等缺点。不少人对梯度下降法的缺点提出了许多改进算法,如二阶快速BP算法、动量因子法、作用函数调整法等[3]。这些改进方法比梯度下降法在收敛速度、逼近精度上有明显提高。但在多变量、大样本输入情况下仍然存在推广能力差、逼近精度低甚至使训练瘫痪的问题。为此,本文采用L-M贝叶斯正则化算法对
BP网络进行改进。2.2.1L-M算法
本文依据Levenberg-Marquart理论对网络的权值和阈值进行调整,L-M算法是一种解非线性最
小二乘问题的有效方法,具有收敛快和逼近精度高的优点。算法如下:
将BP网络各层的权值和阈值用向量W表示。误差平方和为
E=1
!!tpj-Opj"#2
=1
!!p
"$2=12
‖!‖2(1)
其中,p是第p个样本,Opj为第p个样本在输出层第j个神经元的实际输出,tpj为相应的期望输出,!是以!p
为元素的向量。假设当前位于WK
(K为迭代次数),并向新位置W
K+1
移动。如果移动量W
K+1
WK
很小,则可以将!展成一阶Taylor级数
图1多层前向BP网络
Fig.1ForwardBPNNofmultilayer
!W
K+1
!"=!WK!"
+ZWK+1-WK
!"(2)
其中Z是!的雅可比(Jacobian)矩阵,Z的元素为:!"Zpi="!
"Wi因此误差函数(1)可以写为:
E=12
‖!WK!"+ZWK+1-WK
!"‖2(3)
对W
K+1
求导以使E最小,便可得如下高斯—牛顿迭代公式
K+1
=WK
-ZT!"Z-1
ZT
!WK
!
"(4)
为了克服高斯—牛顿法中经常出现的Jacobian矩阵奇异现象,把误差表示式(3)改写为:
E=12
‖!WK+ZWK+1-W
!"!"‖2+#‖WK+1-WK‖2(5)
对E求W
K+1
的极小点,便可得到基于高斯—牛顿法的L-M迭代公式
K+1
=WK
-ZTZ+#!"I-1
ZT
!WK
!"(6)
式中,I为单位矩阵,#为迭代变量。在迭代过程中变量#起控制搜索方向和步长作用。在计算初始阶段#可取大值#0,这时ZT
Z项与#I项相比是可以忽略的小量,于是(6)式可写为
(K+1)
=WK
-1#0
(7)
这是梯度下降法的向量表达式,在函数f极值点附近时,令#→0,(6)式变为高斯—牛顿迭代公式。在计算过程中依据误差E的大小来决定#的取值大小,即:
当EK+!"1<E!"
K时,#
K+!"
1=$1#!"
K$1<1(8)当E
K+!"1>E!"
K时,#
K+!"
1=$2#
!"
K$2>1
(9)
L-M算法既可避免高斯—牛顿法中容易出现的Jacobian矩阵病态和假收敛等缺点,又可避开梯度
下降法中极值点附近逼近精度低和收敛慢的缺点。L-M算法能够保证权值和阈值的每次调整都使E减小,避免网络的震荡。
2.2.2贝叶斯正则化方法
推广能力(Generalization)是衡量神经网络结构性能好坏的重要标志,一个“过度训练”(Overfit-
ting)的神经网络会对训练样本集达到较高的匹配效果,但是对于一个新的输入样本矢量却可能会产
生与目标矢量差别较大的输出,即神经网络不具有或具有较差的推广能力。
在训练样本集大小一定的情况下,网络的推广能力与网络的规模直接相关。如果神经网络的规模远远小于样本集的大小,则发生“过度训练”的机会就很小。但是对于特定的问题,确定合适的网络规模(通常指隐层神经元节点数目)往往是一件十分困难的事情。正则化方法是通过修正神经网络的训练性能函数来提高其推广能力的。即在典型目标函数(5)式中增加一项,此项包含网络权值的平方和均值,因此,目标函数(5)式被调整为
E=K1ED+K2EW
(10)
式中,ED=12
‖!WK+ZWK+1-WK!"!"‖2+#‖WK+1-WK‖2EW=1NN
j=1
%w2
&(’()(11)
其中wj为网络权值。可见,通过采用新的性能指标函数,可以在保证网络训练误差尽可能小的情况下
使网络具有较小的权值,即使得网络的有效权值尽可能地少,这实际上相当于自动缩小了网络的规模。
常规的正则化方法通常很难确定比例系数K1、K2的大小,而贝叶斯正则化方法则可以在网络训练过程中自适应地调整K1、K2的大小,并使其达到最优。
根据文献[4],即Bayesian规则,权值密度函数为:PWD;
K1,
K2,
M!"=
1ZD
K1
!
"*1
ZWK2
!"!"#$exp-K1ED+K2EW
!"%&PDK1,K2,!
"M(12)
式中,PWD;K1,K2,M!"为后期权值密度;M为采用的神经网络模型;PDK1,K2,!"M为标准化因子;ZDK1!"=!K
!"
N/2
,ZWK2!"=!K
!"N/2
在Bayesian模型中,优化权值即求PWD;K1,K2,M!"的最大值,与求目标函数E=K1ED+K2EW的最小值等价,根据Bayesian规则,优化的目标函数参数分别为:
K1=
!2EW!"WK2=N-!
2ED!
"W’)()*(13)
式中:!为神经网络的有效参数个数,!=N-2K2tr!"H-1
!∈0!"N;N为神经网络参数总数;H为目标函数的Hessian矩阵。
本文通过Gauss-Newton法近似计算Hessian矩阵,H=2K1JT
J+2K2IN,并用于Levenberg-Marquart算法的改进,使得算法具有良好的推广性。
3基于神经网络算法的潜艇声纳自噪声预报方法
3.1影响潜艇自噪声的声源参数的确定
从原理上说,BP算法可以视为一种从输入到输出的高度非线性的数学逼近映射:
f:Rn→Rm
f!"
X=Y(14)
这里,X=x1,x2,…xN!",xi∈Rn
为网络输入向量,对应于影响声纳部位自噪声的各个设备的特征参数值和该航态时的各个设备运行参数;Y=y1,y2,…yM!",yi∈Rm
为网络输出向量,即对应于X=(x1,x2,…xN)的声纳部位自噪声的预报结果。
而对样本集合:输入X∈Rn
和期望输出值T∈Rm
神经网络中正则化是为了干什么一定存在某一映射函数g,使得:
g!"
X=T(15)
其中X=x1,x2,…xN!"为样本输入向量,这里为自噪声函数的自变量,即影响声纳部位自噪声的各个设备的特征参数值和对应于该航态时的各个设备运行参数值;T=t1,t2,…tM!",为期望输出值向量,这里为实际测得的对应于X=x1,x2,…xN!"的声纳自噪声值。X,!"TP
为第P个样本对,即为潜艇处于第P个运动状态时的参数矢量和声纳自噪声矢量组成的一个样本对。N为自变量参数个数,即影响声纳
部位自噪声的系统参数的数目。M为输出值个数,即对潜艇上的M个位置处的声纳自噪声进行预报。
BP算法的作用在于求出(14)式表达的映射函数f!"
X=Y,也就是求出神经网络的结构参数(即各个神经元节点之间的连接权值和各个神经元节点的阈值)。使得在潜艇自噪声意义下,f!"X是g!"X的最佳逼近。(14)式的映射过程虽然可以不涉及函数的具体性质,但是必须要出与(15)式相应的变量X=

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。