说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 可变学习速率反传算法
1)  Variable Learning Rate Backpropagation
可变学习速率反传算法
2)  variable learning rate algorithm
可变学习速率算法
1.
In aspect of training algorithm, this paper compares standard backpropagation with momentum algorithm, variable learning rate algorithm and Levenberg-Marquardt algorithm by the convergence and convergence rate of neural network.
本文从训练算法角度方面,比较了标准BP算法、动量算法、可变学习速率算法和Levenberg Marquardt算法这几种方法的收敛性以及收敛速率,并通过Matlab仿真进行了验证。
3)  back-propagation study arithmetic
反传学习算法
4)  variable learning rate
变学习速率
1.
The BP algorithm is modified by variable learning rate and momentum.
其中的BP算法用变学习速率和附加动量因子方法进行了改进。
5)  Dynamic back propagation algorithm
动态反向传播学习算法
1.
A novel dynamic recurrent fuzzy neural network is presented in this paper, and its dynamic back propagation algorithm is formulated according its mathematic models.
提出了一种新型的动态递归模糊神经网络,并根据动态递归神经网络的数学模型推导出其动态反向传播学习算法,仿真结果表明对于动态系统的辨识,动态递归模糊神经网络较传统模糊神经网络在辨识精度和稳定性方面具有更好的效果。
6)  back propagation learning algorithm
反向传播学习算法
1.
Furthermore, the corresponding back propagation learning algorithm is put forward to identify the structure of the fuzzy model and partitions of fuzzy subsets.
针对线性组合预测方法的局限性,提出了一种基于T-S模糊模型的非线性组合预测新方法,并给出了相应的反向传播学习算法。
补充资料:反传学习


反传学习
back-propagation learning

  权值修正训练信号层陈层入层 图1反传神经网络标向量为Yt,经过神经网络作用后形成一输出向量f(戈),可用公式 瓦一习l、一关(xt)!(l)来计算所修正的误差。式(1)中yt*为目标向量叭的分量,关(戈)为输出向量的分量,t为样本编号。全局误差最小有两种形式:一种是针对所有样本或随机选取的某些样本,一种是针对某个样本。根据误差形成的不同,有两种训练方法,前者为样本集中式训练方法,后者为单样本渐进式训练方法。这里以单样本渐进式训练方法为例,介绍反传学习的基本算法。首先,给网络的连接权值随机赋值,取值在[一1,十l]区间。然后取一个样本x,计算每一层结点的输人netj一艺w。。、,其中。*为前一层结点*的输出,w。为连接权值。计算输出层的误差匀=(兀一马)/(netj),其中Tj是相对于样本x的期望输出值。如果为隐层结点,其输出误差氏二厂(netj)/万‘w、,句为上一层单元的误差。根据这些误差计算△wij=产句。‘,其中拜为学习速率,取值为o<产簇1。用△w。修正权值。接着取下一个样本,重复上述步骤,直到输出结点的输出满足要求为止。 前向多层神经网络的反传学习是目前应用最广的学习方法,在模式分类、模糊控制、残缺信息的恢复、函数逼近等领域都得到应用。目前,反传学习仍存在不少问题,网络中隐单元的存在,使梯度下降不能保证全局最小收敛;训练速度太慢;后面样本训练时可能会破坏前面学习的结果;如何设计隐层和隐单元的数目等。这些问题尚待进一步研究凸fQnChUQn XUeXi反传学习(back.proPagation leaming)一种前向多层神经网络的学习方法,学习过程由输人的正向传播和误差的反向传播组成。在正向传播过程中,输人信号从输人层经隐层单元逐层处理,并向输出层传播,每一层神经元的状态只影响下一层的状态。当输出存在误差时,则将输出信号与期望翰出信号的误差进行反向传播,修改各神经元之间的连接权值,从而减小输出误差。反传学习属于误差修正型学习,所以有时也称为误差最快梯度下降学习算法。 反传网络模型最早是由P.J.Werl姗在1974年提出来的。1985年D.Parker对反传学习算法作了更进一步研究。并行分布处理研究组的D.E.Rurndhart等推导出反传学习算法,并且对其功能进行了广泛深人的探讨,系统地解决了多层神经网络中隐层单元连接权值的学习间题。 反传网络的结构由多层前馈非线性可微分单元组成,一般包含有一个输人层,一个输出层,一至多个隐层。同层单元间没有连接,前后层单元间的连接强度用权值表示。图1给出了反传神经网络的基本结构。 反传学习时,通过样本训练,对网络的连接权值进行修改。设输人一训练样本,其输人向量为Xt,目
  
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条