1) the steepest descent algorithm
最速梯度下降法
2) Gradient decent-conjugate BP algorithm
最速下降-共轭梯度BP算法
3) subsection gradient optimal descent algorithm
分段梯度最优下降算法
4) gradient descent method
梯度下降法
1.
On the basis of data mining,a new method is developed for identifying fuzzy model,updating its parameters and determining optimal division of output space simultaneously by means of fuzzy sets theory and the improved gradient descent method.
该方法不仅能够修剪冗余和冲突的初始模糊规则,而且通过引入动态误差传递因子,解决了梯度下降法中存在的收敛速度和振荡之间的冲突问题。
2.
Levenberg Marquardt (LM) algorithm is a combination of neural network, Gauss Newton method and gradient descent method, so it has the abilities of self learning, fast convergence and global search.
Levenberg Marquardt算法是神经网络、高斯 牛顿法与梯度下降法的结合 ,既有神经网络的自学习特性 ,也有高斯 牛顿法的快速收敛特性 ,还有梯度下降法的全局搜索特性。
3.
Two ways are used to design the network,the one is the direct energy descent method,and the other is the gradient descent method.
有两种方法可以用来设计网络 ,一是能量下降法 ,另一个是梯度下降法。
5) gradient descent algorithm
梯度下降法
1.
Comparison between GA and gradient descent algorithm in parameter optimization of UPFC fuzzy damping controller;
基于遗传算法的UPFC模糊阻尼控制器参数优化及与梯度下降法的比较
2.
A few or all of the parameters of the controller are adjusted by using the gradient descent algorithm to minimize the output error.
采用梯度下降法调节部分或全部参数以减小输出误差。
3.
A robust speech recognition system based on discriminative learning of environmental features is proposed for recognition of environmental features in high noise background, and a gradient descent algorithm was adopted for parameters optimization.
介绍了一种环境特征判别学习的Robust语音识别方法 ,该方法基于最小分类错误准则利用梯度下降法迭代地学习环境特征 ,实现了高噪声背景下命令语音识别系统 。
6) gradient descending method
梯度下降法
1.
Aimed at the feature of weak local searching ability of the genetic algorithm,let it be combined with the gradient descending method so as to raise its partial searching ability,and a test has been carried out.
文中针对遗传算法局部搜索能力弱的特点,将其与梯度下降法结合,提高其局部搜索能力,并进行了测试。
2.
Then,the gradient descending method is applied to optimize the weights by iterative arithmetic to minimize the errors of objective value.
运用最优梯度下降法使目标的计算值与期望值误差最小来迭代优选权重,建立迭代算法模型。
补充资料:最速下降法
分子式:
CAS号:
性质:一种基本的寻优方法。根据函数梯度的特性,在实验点附近,沿梯度方向函数变化率最大,称为最速上升方向。选取负梯度方向(最速下降方向)作为搜索方向来搜索极小值点,称为最速下降法。任选一个起始点X(0),计算该点的梯度和梯度方向的单位向量E(0),沿负梯度方向进行搜索,寻求最优步长h(0),使在该方向的目标函数值最小。找到了最优步长,便得到一个新点X(1),X(1)=X(0)-h(0)E(0)。再以X(1)点作为新的寻优起始点,继续上述的搜索步骤,直到满足给定的收敛要求为止。沿梯度方向进行搜索的特点是,函数在X(k)点与在X(k+1),点的梯度向量相互垂直,搜索路线呈锯齿形;距极值点较远时,收敛速度较快,接近极值点,优化速度很慢;迭代计算比较简单,在计算中对起始点位置选择要求不高。
CAS号:
性质:一种基本的寻优方法。根据函数梯度的特性,在实验点附近,沿梯度方向函数变化率最大,称为最速上升方向。选取负梯度方向(最速下降方向)作为搜索方向来搜索极小值点,称为最速下降法。任选一个起始点X(0),计算该点的梯度和梯度方向的单位向量E(0),沿负梯度方向进行搜索,寻求最优步长h(0),使在该方向的目标函数值最小。找到了最优步长,便得到一个新点X(1),X(1)=X(0)-h(0)E(0)。再以X(1)点作为新的寻优起始点,继续上述的搜索步骤,直到满足给定的收敛要求为止。沿梯度方向进行搜索的特点是,函数在X(k)点与在X(k+1),点的梯度向量相互垂直,搜索路线呈锯齿形;距极值点较远时,收敛速度较快,接近极值点,优化速度很慢;迭代计算比较简单,在计算中对起始点位置选择要求不高。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条