3) Wolfe line search
Wolfe线搜索
1.
A new conjugate gradient method is proposed for solving unconstrained optimization problems to update and prove the method with Wolfe line search convergece globally.
提出了求解无约束优化问题的一种新的共轭梯度法,修正了βk,并在Wolfe线搜索下证明了它的全局收敛性。
2.
The convergence of the new methods is proved under the Wolfe line search without the descent condition.
本文对求解无约束优化问题提出一类三项混合共轭梯度算法,新算法将Hestenes- stiefel算法与Dai-Yuan方法相结合,并在不需给定下降条件的情况下,证明了算法在Wolfe线搜索原则下的收敛性,数值试验亦显示出这种混合共轭梯度算法较之HS和PRP的优势。
3.
Under mild conditions, we prove that the method possesses descent property and is global convergence with the strong Wolfe line search.
在适当的条件下,证明了算法具有下降性质,并且在采用强Wolfe线搜索时,算法是全局收敛的。
4) step-size search
步长搜索
1.
Convergent analysis of the memory gradient method based on a new step-size search;
基于新的步长搜索下的记忆梯度法收敛性分析
5) strong Wolfe line search
强wolfe线搜索
1.
The algorithm uses the linear combination of negative gradient and its previous search direction as a search direction,and uses strong Wolfe line search to the step-size.
研究一类新的记忆梯度法,算法利用当前点的负梯度和前一点的搜索方向的线性组合为搜索方向,以强wolfe线搜索确定步长,并证明了算法具有全局收敛性,当目标函数一致凸时讨论了收敛速度。
补充资料:步长
分子式:
CAS号:
性质:在单纯形优化法中,每次向前推移单纯形的距离。采用较大的步长推移单纯形,可以加快优化速度,但得到的优化条件的精度较差,而采用较小的步长推移单纯形,得到的优化条件的精度提高,但减慢了优化速度,通常采用可变步长来解决优化速度与精度之间的矛盾。
CAS号:
性质:在单纯形优化法中,每次向前推移单纯形的距离。采用较大的步长推移单纯形,可以加快优化速度,但得到的优化条件的精度较差,而采用较小的步长推移单纯形,得到的优化条件的精度提高,但减慢了优化速度,通常采用可变步长来解决优化速度与精度之间的矛盾。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条