说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 约束多目标优化问题
1)  Constrained Multi-Objective Optimization Problem
约束多目标优化问题
2)  Multi-object restrict problem
多目标约束问题
3)  multi-constraints optimization problem
多约束优化问题
4)  Multi-objective constrained optimization
多目标约束优化
1.
According to the equilibrium condition of ship free floating, the calculation of free floatation boils down to a multi-objective constrained optimization problem and genetic algorithm (GA) was applied to the solution of it.
根据船舶自由漂浮的平衡条件,将自由浮态计算归结为多目标约束优化问题,并引入遗传算法(GA)对该优化问题进行求解。
5)  constrained multi-objective optimization
约束多目标优化
1.
Evolution algorithm for constrained multi-objective optimization problem;
演化算法求解约束多目标优化问题
2.
A new algorithm for constrained multi-objective optimization is presented.
提出一种用于求解约束多目标优化问题的新算法,其主要特点是将约束条件转化为一个目标,并引入免疫克隆和免疫记忆机制,使抗体种群的演化过程和记忆单元的演化过程并行进行,更好地实现了抗体间的相互协作,保证了在演化过程中,解集从可行域内部和不可行域边缘向着约束最优Pareto-前端逼近。
6)  multi-objective optimal problem
多目标优化问题
1.
The new representation proposed in this paper deals with the partitional clustering problem by regarding it as a multi-objective optimal problem;in this approach the niche Pareto genetic algorithm is used to solve the problem.
为了解决该问题,提出将产状数据的划分问题转化为多目标优化问题,并采用小生境Pareto遗传算法进行求解。
2.
This paper introduce a new and efficient multi-objective evolutionary algorithms (EMOEA) for solving unconstrained and constrained multi-objective optimal problems (MOPs).
利用 Better函数对多目标优化问题 (MOP)建立了一种偏序关系 ,并通过这种偏序关系对种群中的个体进行排名 ,设计了一种高效的多目标演化算法 (EMOEA) ,应用有限 Markov链的有关理论证明了此演化算法的收敛性 ,同时对四个 Benchmark函数进行了数值试验 ,测试结果表明 ,新算法在解集分布的均匀性、多样性、精确性以及快速收敛性均优于已有的 MOEA。
补充资料:无约束优化方法
      研究寻求多元函数??(尣)=??(x1,x2,...,xn)在整个实n维空间Rn中局部极小值点的数值方法。它在非线性规划的研究中占有很重要的位置,除了本身的意义与应用外,它也是许多带约束优化方法的基础。
  
  大多数无约束优化方法都是迭代法,每一次迭代都从某一点尣移到另一个适合条件
  ??(尣)<??(尣) (1)的点尣。为了得到尣,首先要确定移动的方向 s,其次要确定沿方向 s移动的步长λk,于是尣=尣+λks。对应于s与λk的不同选取,就得到不同的算法。
  
  直接法  往往以直观或以计算实践为基础而产生,这类算法的特点是只要求计算函数值本身,因而易于使用,但是与另一些要求计算偏导数值的方法相比,又收敛得慢。所以直接法常常用于变量极少而函数比较复杂且不易计算偏导数的情形。较为常用的直接法有鲍威尔法、单纯形调优法和模式搜索法。
  
  最陡下降法和牛顿-拉弗森方法 在要求计算偏导函数值的算法类中,一般取移动方向s满足 , (2)这里的T表示矩阵(或向量)的转置运算,墷??(尣)表示??(尣)在点尣上的梯度,即
  。式(2)保证了在以尣为始点,s为方向的半直线
   (3)上一定有点尣适合??(尣)(尣)。为了使式(2)成立,往往取, (4)式中Hk是一n阶的对称正定矩阵。
  
  通常,步长λk的选取原则是取λk使尣为??(x)在半直线(3)上的最小值点。这样选取步长 λk的过程称为精确线性搜索或简称线性搜索。这时有
  , (5)亦即点尣上的梯度方向与移动方向成正交。
  
  只要墷??(尣)≠0,总可以按上述方法进行迭代。在一定的假设下,能够证明墷??(尣)→0,于是对于凸函数??(尣),点列{尣}的任何极限点都是??(尣)的最小值点;而对于一般的非凸函数,即使不能保证{尣}的极限点是局部最小值点,但因目标函数值逐次减少,往往也能得到满意的结果。
  
  可以证明,在由尣出发的所有同样长度的方向中,负梯度方向是使函数值下降最快的方向。于是取移动方向s为负梯度方向-墷??(尣),或者等价地取(4)中的Hk为单位矩阵I,并由线性搜索确定步长λk与下一点 尣。这就是通常所谓的最陡下降法。
  
  牛顿-拉弗森法则以 ??(尣)的二次近似为基础,在二阶偏导数矩阵墷2??(x)为正定时,以此二次近似的最小值点为下一点,即取,但这样得到的 尣 未必适合式(1),因此又改成以为移动方向,或者等价地在(4)中取Hk为(墷2??(尣))-1,再通过线性搜索来确定 λk与尣。
  
  在一些有关??(尣)的假设下,对于这两个古老的方法,都可证明墷??(尣)→0。这两个方法各有其优缺点。最陡下降法比较简单,并且除了函数值本身外,只需要计算一阶偏导数的值;但是理论分析和计算实践都表明这个方法的收敛速度很慢。事实上,由 及式(5)可知,{尣}中的点沿着相互正交的方向交替前进,因此,即使对于二次严格凸函数,
   (6)式中A对称正定,只要A不是数量矩阵αI,那么尣就曲折前进,且进展很慢。当n=2时如图所示。
  
  与此相反,牛顿-拉弗森方法收敛得快。特别对于形如(6)的二次严格凸函数,只要一次迭代,就能达到最优解尣*,即使对于一般的函数??(尣),在某些假设下,也可证明{尣}为二阶收敛。这个方法不仅要计算 n个一阶偏导数,而且还要计算个二阶偏导数,因此只在n比较小或函数比较简单的情形才使用。
  
  共轭梯度法与变尺度法是既有较快的收敛速度又无需计算二阶偏导函数的算法。
  
  共轭梯度法  由于在局部最小值点的邻近,函数的性状与二次凸函数 (6)十分相似,所以对于一个好的寻优方法,人们要求它在应用于二次凸函数时有较快的收敛速度,即使最小值点不能象牛顿-拉弗森方法那样一步达到,也应在有限步内达到。事实上,沿着y空间中n个两两正交的方向依次作线性搜索,一定可以达到函数1/2 (y-y*)T(y-y*) 的最小值点y*。于是通过变换y=A1/2尣,沿着尣空间中n个满足
  
    (7)的方向s(1),s(2),...,s(n)依次作线性搜索,就一定能达到函数(6)的最小值点尣*。满足式(7)的n个非零方向 s(1),s(2),...,s(n)称为关于矩阵A的共轭方向系。20世纪60年代R.弗莱彻和C.M.里夫斯用梯度向量构造出共轭方向系,提出了共轭梯度法。它从任意的初始点尣(1)开始,在第k次迭代时取移动方向然后沿着半直线(3)作线性搜索得到尣。在将它应用于二次凸函数(6)时,它就是一个共轭方向法,最多n次迭代就能达到最小值点尣*。共轭梯度法也适用于非二次的目标函数。在将共轭梯度法应用于非二次的目标函数时,常常采用周期性重开始的策略,也就是说,对于n除余1的自然数k,移动方向s都取为负梯度方向-墷??(尣),而对其他的k,s则由(8)中第二个公式定义,采用这种策略,数值效果将有显著改进,理论上也可证明可以达到n步二阶收敛,也即存在正常数α使对充分大的k,都有而若不采取周期性重开始的策略,其收敛阶仅为线性。共轭梯度法由于只需要存贮几个向量,特别适宜于解大型问题。当然,还需要采用条件予优的方法以加速收敛。
  
  变尺度方法 也有人称为拟牛顿方法。这是近二十多年来发展起来的一类很有成效的寻优方法。理论分析和计算实践都表明这类方法的收敛速度较快,同时又无需计算二阶偏导数矩阵。这类方法的共同特点是:移动方向s由(4)定义,其中Hk为n阶对称正定方阵;H1可以任意选取,但通常取H1=I;当k>1时,Hk由Hk-1和以及确定,并满足如下的拟牛顿方程
   (9)步长λk和下一点尣由线性搜索确定。
  
  第一个变尺度法是W.D.戴维登于1959年首先提出的,而由 R.弗莱彻和 M.J.D.鲍威尔在理论上作了研究并于1963年公开发表,所以通常称为DFP方法,在这个方法中,Hk(k>1)的定义如下:
  。
  
  由于DFP方法的成功,在其后十多年间,又提出了许多变尺度方法,这些方法只在Hk(k>1)的定义方法上有所不同。在理论上,只要尣、H1取得相同,那么在一定条件下,由不同的变尺度方法产生的点列{尣}都只依赖于某一参数;但在实际计算中,由于舍入误差的关系,由不同的变尺度方法产生的点列未尽相同。最成功的变尺度法是BFGS法,它的Hk(k>1)定义为 与DFP方法相比,BFGS方法具有较好的数值稳定性。
  
  无论是DFP方法或者 BFGS方法,都有以下一些性质:①只要初始的矩阵H1正定,那么以后的各个矩阵Hk(k≥1)也都正定;②将它们应用于二次严格凸函数(6)时,由算法所确定的移动方向序列s(1),s(2),...,s(n)是一组关于矩阵A的共轭方向系,所以最多经过n次迭代,一定能够达到二次严格凸目标函数的最小点尣*;③理论上可以证明这两个算法在一定的条件下都是超线性收敛并且都是n步二阶收敛的。
  
  不精确线性搜索或可接受点准则  前述各法都是建立在线性搜索的基础之上的,即取尣恰为??(尣)在半直线(3)上的最小值点,但在实际计算中,无法做到;虽然可以用黄金分割、二次插值等方法做到充分的近似,却极为费时。近年来,人们注意建立在不精确线性搜索的基础之上的方法。鲍威尔于1976年证明了:用适当的不精确线性搜索代替线性搜索后,BFGS算法仍是超线性收敛的。80年代,又出现了信赖域方法和基于锥模型的优化算法,已取得了良好的效果,受到了广泛的重视。
  
  最小平方和问题  一类具有特殊形式的无约束优化问题。在这类问题中,目标函数??(尣)是一些函数的平方和,即。这类问题在数据拟合中经常出现,方程组的求解也可转化为最小平方和的问题。由于目标函数具有特殊的形式,所以人们设计了专门的方法,如高斯-牛顿方法、莱文贝格-马夸特方法等。
  
  

参考书目
   R.Fletcher,Prαcticαl Methods of Optimizαtion,Unconstrαined Optimizαtion, Vol.1, John Wiley &Sons, New York, 1979.
  

说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条