1) CGS
共轭梯度平方法
2) conjugate gradient method
共轭梯度方法
1.
A class of conjugate gradient method and its global convergence;
一类共轭梯度方法及其全局收敛性(英文)
2.
In this paper,based on a modified FR formula,we propose a new conjugate gradient method with Goldstein line searches.
将一个修正的FR公式和Goldstein线搜索结合,得到一种新的共轭梯度方法。
3.
Three-dimensional paraxial approximate equation with optimized coefficientscan be obtained by using conjugate gradient method under least square premise.
本文在最小二乘意义下用共轭梯度方法导出优化系数的三维傍轴近似方程。
3) conjugate gradient-type method
共轭梯度类方法
4) Biconjugate gradient method
双共轭梯度方法
5) MR CGS
最小剩余共轭梯度平方法
6) conjugate gradient algorithm
共轭梯度法
1.
Training method of multi-layered neural network based on conjugate gradient algorithm;
基于共轭梯度法的多层神经网络训练方法
2.
Blind image restoration based on space domain conjugate gradient algorithm;
基于空间域共轭梯度法的盲目图像复原
3.
With the introduction of punishment function and the appropriate modification of objective function,a sintering blending optimization algorithm is proposed,which takes full advantage of the global search ability of particle swarm optimization(PSO) algorithm and the local search ability of conjugate gradient algorithm with constraints.
在引入惩罚函数和对目标函数进行适当修改的前提下,充分利用粒子群优化算法的全局搜索能力和约束条件下共轭梯度法的局部搜索能力,设计了烧结配料优化算法。
补充资料:共轭梯度法
又称共轭斜量法,是解线性代数方程组和非线性方程组的一种数值方法,例如对线性代数方程组
A尣=??, (1)式中A为n阶矩阵,尣和??为n维列向量,当A对称正定时,可以证明求(1)的解尣*和求二次泛函 (2)的极小值问题是等价的。此处(尣,у)表示向量尣和у的内积。由此,给定了初始向量尣,按某一方向去求(2)取极小值的点尣,就得到下一个迭代值尣,再由尣出发,求尣等等,这样来逼近尣*。若取求极小值的方向为F在尣(k=1,2,...)处的负梯度方向就是所谓最速下降法,然而理论和实际计算表明这个方法的收敛速度较慢,共轭梯度法则是在 尣处的梯度方向r和这一步的修正方向p所构成的二维平面内,寻找使F减小最快的方向作为下一步的修正方向,即求极小值的方向p(其第一步仍取负梯度方向)。计算公式为再逐次计算
(k=1,2,...)。可以证明当i≠j时,从而p,p形成一共轭向量组;r,r,...形成一正交向量组。后者说明若没有舍入误差的话,至多 n次迭代就可得到(1)的精确解。然而在实际计算中,一般都有舍入误差,所以r,r,...并不真正互相正交,而尣尣,...等也只是逐步逼近(1)的真解,故一般将共轭梯度法作为迭代法来使用。
近来在解方程组(1)时,常将共轭梯度法同其他一些迭代法结合作用。特别是对病态方程组这种方法往往能收到比较显著的效果。其方法是选取一对称正定矩阵 B并进行三角分解,得B=LLT。将方程组(1)化为
hу=b, (3)此处y=lT尣,b=l-1??,h=l-1Al-T,而。再对(3)用共轭梯度法,计算公式为
(k=0,1,2,...)适当选取B,当B 很接近A时,h的条件数较之A大大减小,从而可使共轭梯度法的收敛速度大为加快,由一些迭代法的矩阵分裂A=M -N,可选取M 为这里的B,例如对称超松弛迭代(SSOR),强隐式迭代(SIP)等,这类方法常称为广义共轭梯度法或预条件共轭梯度法,它也可用于解代数特征值问题。
参考书目
冯康等编:《数值计算方法》,国防工业出版社,北京,1978。
A尣=??, (1)式中A为n阶矩阵,尣和??为n维列向量,当A对称正定时,可以证明求(1)的解尣*和求二次泛函 (2)的极小值问题是等价的。此处(尣,у)表示向量尣和у的内积。由此,给定了初始向量尣,按某一方向去求(2)取极小值的点尣,就得到下一个迭代值尣,再由尣出发,求尣等等,这样来逼近尣*。若取求极小值的方向为F在尣(k=1,2,...)处的负梯度方向就是所谓最速下降法,然而理论和实际计算表明这个方法的收敛速度较慢,共轭梯度法则是在 尣处的梯度方向r和这一步的修正方向p所构成的二维平面内,寻找使F减小最快的方向作为下一步的修正方向,即求极小值的方向p(其第一步仍取负梯度方向)。计算公式为再逐次计算
(k=1,2,...)。可以证明当i≠j时,从而p,p形成一共轭向量组;r,r,...形成一正交向量组。后者说明若没有舍入误差的话,至多 n次迭代就可得到(1)的精确解。然而在实际计算中,一般都有舍入误差,所以r,r,...并不真正互相正交,而尣尣,...等也只是逐步逼近(1)的真解,故一般将共轭梯度法作为迭代法来使用。
近来在解方程组(1)时,常将共轭梯度法同其他一些迭代法结合作用。特别是对病态方程组这种方法往往能收到比较显著的效果。其方法是选取一对称正定矩阵 B并进行三角分解,得B=LLT。将方程组(1)化为
hу=b, (3)此处y=lT尣,b=l-1??,h=l-1Al-T,而。再对(3)用共轭梯度法,计算公式为
(k=0,1,2,...)适当选取B,当B 很接近A时,h的条件数较之A大大减小,从而可使共轭梯度法的收敛速度大为加快,由一些迭代法的矩阵分裂A=M -N,可选取M 为这里的B,例如对称超松弛迭代(SSOR),强隐式迭代(SIP)等,这类方法常称为广义共轭梯度法或预条件共轭梯度法,它也可用于解代数特征值问题。
参考书目
冯康等编:《数值计算方法》,国防工业出版社,北京,1978。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条