说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 记忆梯度算法
1)  memory gradient method
记忆梯度算法
1.
The memory gradient method can solve the large-scale unconstrained optimization problems,and also has the characteristics of avoiding massively saving and carrying on the large-scale matrix operations.
记忆梯度算法能求解大规模无约束优化问题,还具有避免大量存储和进行大规模矩阵运算的特点。
2)  memory gradient method
记忆梯度法
1.
Convergent analysis of the memory gradient method based on a new step-size search;
基于新的步长搜索下的记忆梯度法收敛性分析
2.
A class of memory gradient methods;
一类记忆梯度法的收敛性
3.
A new class of memory gradient methods with Wolfe line search
一类新的Wolfe线性搜索下的记忆梯度法
3)  Three-term memory gradient method
三项记忆梯度算法
4)  super-memory gradient method
超记忆梯度法
5)  supermemory gradient method
超记忆梯度法
1.
This paper presents a new class of supermemory gradient methods for unconstraind optimization problems and proves its global convergence under some mild conditions.
提出一类新的求解无约束优化问题的超记忆梯度法,并在较弱条件下证明了算法的全局收敛性。
6)  Memory gradient
记忆梯度
补充资料:变量-梯度法


变量-梯度法
variablegradient method

(6)。于是得v一户,,d,;+f x22剐么一冬对+二:。在 J 0 JO‘l一ZxlxZ>o范围内,系统的平衡状态是稳定的。若另取al,~ 2(l一二,xZ)2 一xf(1一x:x:)2,己21= xl(l一x,xZ)2,则可求得另一个v函数宕氛-、式,约束条件为1一xlxZ>o,比前一个还好。b一anl一ong一t一dufo变t一梯度法(variable一gradient method) 对非线性系统云一f(x),了(0)~0选择李雅普诺夫函数的一种方法。 令v(x)为一备择的李雅普诺夫函数(见李稚普诺夫方法),V(x)可表示为 弃.那.弃. V(x)=于x,+升x:+…+笋x,(l) axl一‘’axZ一‘’‘肚一”X XX陌以尸|阮 一一 「“人,、、,,,、}刁‘g、·,一‘rad“气‘,一} 口V/ax,V/a xZ 月 X 日.…Z了 V于是,式(1)可写作 v(x)一比(x)」T毖对上式两边积分,可得李雅普诺夫函数(3)V‘x,一上罕d: 一J;「:(·)〕·瓮d,一{:仁,‘X,〕T“(4)这是从状态空间原点到一任意点(x,,xZ,…,x,)的线积分。由式(3)有比(x)〕Tdx二dV(x),式(4)中的积分与积分路径无关。最简单的积分路径是沿状态向量x的诸分量方向(xl,xZ,…,x二)顺序进行式(4)中积分的计算,即v(X)一{;〔:(X):·‘X一{:’、1(“1,。,…,。)‘“】 +J:292‘Xl,6z,0,一O,d“2+…5)并一必+{;”g。(Xl,XZ,X3,··一氏,d氏于是,变量一梯度法工作就要选择一向量函数g(x)将这一函数按式(5)积分以获得标量函数V(x)。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条