1) super-memory gradient method
超记忆梯度法
2) supermemory gradient method
超记忆梯度法
1.
This paper presents a new class of supermemory gradient methods for unconstraind optimization problems and proves its global convergence under some mild conditions.
提出一类新的求解无约束优化问题的超记忆梯度法,并在较弱条件下证明了算法的全局收敛性。
3) memory gradient method
记忆梯度法
1.
Convergent analysis of the memory gradient method based on a new step-size search;
基于新的步长搜索下的记忆梯度法收敛性分析
2.
A class of memory gradient methods;
一类记忆梯度法的收敛性
3.
A new class of memory gradient methods with Wolfe line search
一类新的Wolfe线性搜索下的记忆梯度法
4) memory gradient method
记忆梯度算法
1.
The memory gradient method can solve the large-scale unconstrained optimization problems,and also has the characteristics of avoiding massively saving and carrying on the large-scale matrix operations.
记忆梯度算法能求解大规模无约束优化问题,还具有避免大量存储和进行大规模矩阵运算的特点。
6) Three-term memory gradient method
三项记忆梯度算法
补充资料:变量-梯度法
变量-梯度法
variablegradient method
(6)。于是得v一户,,d,;+f x22剐么一冬对+二:。在 J 0 JO‘l一ZxlxZ>o范围内,系统的平衡状态是稳定的。若另取al,~ 2(l一二,xZ)2 一xf(1一x:x:)2,己21= xl(l一x,xZ)2,则可求得另一个v函数宕氛-、式,约束条件为1一xlxZ>o,比前一个还好。b一anl一ong一t一dufo变t一梯度法(variable一gradient method) 对非线性系统云一f(x),了(0)~0选择李雅普诺夫函数的一种方法。 令v(x)为一备择的李雅普诺夫函数(见李稚普诺夫方法),V(x)可表示为 弃.那.弃. V(x)=于x,+升x:+…+笋x,(l) axl一‘’axZ一‘’‘肚一”X XX陌以尸|阮 一一 「“人,、、,,,、}刁‘g、·,一‘rad“气‘,一} 口V/ax,V/a xZ 月 X 日.…Z了 V于是,式(1)可写作 v(x)一比(x)」T毖对上式两边积分,可得李雅普诺夫函数(3)V‘x,一上罕d: 一J;「:(·)〕·瓮d,一{:仁,‘X,〕T“(4)这是从状态空间原点到一任意点(x,,xZ,…,x,)的线积分。由式(3)有比(x)〕Tdx二dV(x),式(4)中的积分与积分路径无关。最简单的积分路径是沿状态向量x的诸分量方向(xl,xZ,…,x二)顺序进行式(4)中积分的计算,即v(X)一{;〔:(X):·‘X一{:’、1(“1,。,…,。)‘“】 +J:292‘Xl,6z,0,一O,d“2+…5)并一必+{;”g。(Xl,XZ,X3,··一氏,d氏于是,变量一梯度法工作就要选择一向量函数g(x)将这一函数按式(5)积分以获得标量函数V(x)。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条