1) study of error reverse transfer
误差反传学习
2) Feedback error learning
反馈误差学习
1.
Design and Simulation of Predictive Feedback Error Learning Model;
加入预测信息的反馈误差学习模型及其仿真研究
3) Feedback-Error-Le arning
反误差学习法
4) learning error
学习误差
1.
Inherited parameters learning method based on logic stabilization rules is presented to overcome learning error and instability of Baosteel 2 050 mm hot roughing mill and satisfy the requirement of new system learning.
针对宝钢2050热轧粗轧后计算学习有时计算偏差大、学习不稳定以及为了满足新系统遗传系数学习的要求,首先提出学习方法逻辑稳定的概念,给出两个定理作为判据,然后对学习误差进行了分析,并通过推理决策的方式提出基于逻辑稳定判据的遗传系数学习方法,最后对实际系统进行了分析,表明本文提出的方法是正确、可行的。
2.
To solve these problems, based on minimizing the increment of learning errors and combining LVQ and GNG, the authors propose a new growing LVQ method and apply it to text classification.
针对这些问题,基于最小化学习误差的增量思想,该文将学习型矢量量化(LVQ)和生长型神经气(GNG)结合起来提出一种新的增量学习型矢量量化方法,并将其应用到文本分类中。
3.
By adding an amending part to the output of the NN to compensate,the influence of many unknown factors on the learning error,the method to adapt the learning rate was construc.
该方法通过为神经网络的输出增加一个输出修正量来补偿多个未知因素对学习误差的影响,从而构造使学习误差快速收敛到零的学习速率自适应算法。
5) backpropagation
误差反传
1.
Extending hidden-layer backpropagation neural network and its training algorithm;
扩展隐层的误差反传网络训练算法研究
2.
The connectionist learning by backpropagation makes use of weights-change-only where the learned knowledge is concentrated only in the inter-neuron connections of the applied network and the activation functions of neurons remain constant during the learning process.
连接型网络的误差反传学习通常只是改变网络的权系数,所学的知识仅存储子所用网络内部神经元的连接之中,而神经元的作用函数在学习过程中保持不变。
6) error back propagation
误差反传
1.
Combining wavelet analysis and neural network characteristics, the error back propagation wavelet neural network based structure and algorithm to ship roll time series prediction are given .
结合小波分析和神经网络的特点,建立了应用于船舶横摇运动时间序列预报的误差反传小波神经网络结构并给出了算法。
补充资料:反传学习
反传学习
back-propagation learning
权值修正训练信号层陈层入层 图1反传神经网络标向量为Yt,经过神经网络作用后形成一输出向量f(戈),可用公式 瓦一习l、一关(xt)!(l)来计算所修正的误差。式(1)中yt*为目标向量叭的分量,关(戈)为输出向量的分量,t为样本编号。全局误差最小有两种形式:一种是针对所有样本或随机选取的某些样本,一种是针对某个样本。根据误差形成的不同,有两种训练方法,前者为样本集中式训练方法,后者为单样本渐进式训练方法。这里以单样本渐进式训练方法为例,介绍反传学习的基本算法。首先,给网络的连接权值随机赋值,取值在[一1,十l]区间。然后取一个样本x,计算每一层结点的输人netj一艺w。。、,其中。*为前一层结点*的输出,w。为连接权值。计算输出层的误差匀=(兀一马)/(netj),其中Tj是相对于样本x的期望输出值。如果为隐层结点,其输出误差氏二厂(netj)/万‘w、,句为上一层单元的误差。根据这些误差计算△wij=产句。‘,其中拜为学习速率,取值为o<产簇1。用△w。修正权值。接着取下一个样本,重复上述步骤,直到输出结点的输出满足要求为止。 前向多层神经网络的反传学习是目前应用最广的学习方法,在模式分类、模糊控制、残缺信息的恢复、函数逼近等领域都得到应用。目前,反传学习仍存在不少问题,网络中隐单元的存在,使梯度下降不能保证全局最小收敛;训练速度太慢;后面样本训练时可能会破坏前面学习的结果;如何设计隐层和隐单元的数目等。这些问题尚待进一步研究凸fQnChUQn XUeXi反传学习(back.proPagation leaming)一种前向多层神经网络的学习方法,学习过程由输人的正向传播和误差的反向传播组成。在正向传播过程中,输人信号从输人层经隐层单元逐层处理,并向输出层传播,每一层神经元的状态只影响下一层的状态。当输出存在误差时,则将输出信号与期望翰出信号的误差进行反向传播,修改各神经元之间的连接权值,从而减小输出误差。反传学习属于误差修正型学习,所以有时也称为误差最快梯度下降学习算法。 反传网络模型最早是由P.J.Werl姗在1974年提出来的。1985年D.Parker对反传学习算法作了更进一步研究。并行分布处理研究组的D.E.Rurndhart等推导出反传学习算法,并且对其功能进行了广泛深人的探讨,系统地解决了多层神经网络中隐层单元连接权值的学习间题。 反传网络的结构由多层前馈非线性可微分单元组成,一般包含有一个输人层,一个输出层,一至多个隐层。同层单元间没有连接,前后层单元间的连接强度用权值表示。图1给出了反传神经网络的基本结构。 反传学习时,通过样本训练,对网络的连接权值进行修改。设输人一训练样本,其输人向量为Xt,目
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条