1) Newton-Raphson iterative technique
Newton-Raphspn迭代法
2) newton iteration
Newton迭代法
1.
In this paper,some new theorems of convergence of the Newton iteration and Newton descent method in larger convergence domain are introduced,and the expressions of error estimate about these two iterations are presented.
给出一种新的,具有较大收敛域的Newton迭代法和Newton下山法收敛性定理,以及误差估计式。
2.
With reconstructions and extensions towards classical principalagent theory, this paper brings forward obendeavor theorem, validates moral hazard with hidden action, and discovers coordinating effect of the level of endeavor towards endeavor effect index through calculating longterm endeavor of the entrepreneur by the method of Newton iteration and graphics.
通过对传统的委托—代理理论进行重新构造和拓展,本文提出逆反努力法则,验证了隐藏行动的道德风险的存在,并通过Newton迭代法和图形学方法对风险企业家的长期努力水平进行计算,发现努力水平对努力效应指数n表现出协同效应。
3) Newton iteration method
Newton迭代法
1.
Newton iteration method for solving the system of no nlinear equations is improved, restriction on its iteration function is relaxed, the convergence of the improved iteration algorithm is proved strictly, and the theoretical basis for designing cheaper and faster iteration methods is supplie d.
对求解非线性方程组的Newton迭代法进行改进 ,放宽了对其迭代函数的限制 ,并对改进后的迭代法的收敛性进行了严格的证明 ,为进一步设计出成本低且收敛速度较慢的迭代法提供了理论依据 。
2.
This paper describs a corrector Newton iteration method for solving equation with one unknown.
考虑用一种修正的Newton迭代法解一元方程 ,其收敛速度比Newton迭代法更快 ,比M櫣ller法更直观 。
3.
Instead of the linearization of expression of thermal radiation on free surface,start at Galerkin finite element method,convert the calculation problem of the temperature field into a calculation of nonlinear equations,and then calculate the temperature by Newton iteration method.
从Galerkin有限元方法出发,对自由表面上的辐射换热的数学表达式不作线性化处理,而是把温度场的求解问题转化为非线性代数方程组的求解问题,并且用Newton迭代法计算了温度场。
4) Newton iterative method
Newton迭代法
1.
An generalized Newton iterative method for extracting the roots of a category equation;
求一类方程重根的广义Newton迭代法
2.
Newton iterative method based on Hénon chaos mapping for seeking the positional forward solution of parallel mechanism
并联机构位置正解的基于Hénon混沌映射的Newton迭代法
3.
Seydel s method is taken as first step to make prediction,and then Newton iterative method to make correction along the direction which is orthogonal to that found in the first step.
该法采用Seydel方法的第一步做预估,其次在与其正交方向上用Newton迭代法进行校正,数值算例表明了该方法的有效性。
5) Newton-Raphson iterative method
Newton-Raphson迭代法
1.
The Newton-Raphson iterative method is commonly used to solve nonlinear algebraic equations due to its fast convergence speed.
本文针对用 Newton-Raphson迭代法求解河网数值模拟中所出现的非线性代数方程组的问题 ,证明了只要当时间步长取得足够小时 ,迭代法的局部收敛性条件就一定可以满足 ,从而给出了 Newton- Raphson迭代法在河网非恒定流计算中应用的一个理论基础。
6) Newton-type iterative method
Newton型迭代法
1.
Thus,we get two new Newton-type iterative method.
对解非线性方程组Newton迭代格式进行了改进,得到了两种比Newton法较为宽松的并且收敛速度较快的新的迭代格式,从而构造了两种新的Newton型迭代法,理论分析和数值实验证明这两种方法是稳定且有效的。
补充资料:策略迭代法
动态规划中求最优策略的基本方法之一。它借助于动态规划基本方程,交替使用"求值计算"和"策略改进"两个步骤,求出逐次改进的、最终达到或收敛于最优策略的策略序列。
例如,在最短路径问题中,设给定M个点1,2,...,M。点M是目的点,сij>0是点i到点j的距离i≠j,сij=0,i,j=1,2,...,M,要求出点i到点M的最短路。记??(i)为从i到M的最短路长度。此问题的动态规划基本方程为
(1)其策略迭代法的程序如下:选定一初始策略u0(i),在这问题中,策略u(i)的意义是从点i出发走一步后到达的点,而且作为策略,它是集{1,2,...,M-1}上的函数。由u0(i)解下列方程组求出相应的值函数??0(i):
再由??0(i)求改进的一次迭代策略u1(i),使它是下列最小值问题的解:然后,再如前面一样,由u1(i)求出相应的值函数??1(i),并由??1(i)求得改进的二次迭代策略u2(i),如此继续下去。 可见求解(1)的策略迭代法的程序由下列两个基本步骤组成:
①求值计算 由策略 un(i)求相应的值函数??n(i),即求下列方程的解:
②策略改进 由值函数??n(i)求改进的策略,即求下列最小值问题的解:式中规定,如un(i)是上一问题的解,则取un+1(i)=un(i)。
在一定条件下,由任选的初始策略出发,轮换进行这两个步骤, 经有限步N后将得出对所有i,uN+1(i)=uN(i)这样求得的uN(i)就是最优策略,相应的值函数??N(i)。是方程(1)的解。
对于更一般形式的动态规划基本方程
(2)这里??,H,φ为给定实函数。上述两个步骤变成:
①求值计算 由策略un(x)求相应的值函数 ??n(x),即求方程 之解,n=0,1,2...。
②策略改进 由值函数??n(x)求改进的策略un+1(x),即求最优值问题的解。
对于满足适当条件的方程(2)和初始策略,上述两个步骤的解存在,并且在一定条件下,当n→ 时,所得序列{??n(x)}与{un(x)}在某种意义下分别收敛于(2)的解和最优策略。
策略迭代法最初是由R.贝尔曼提出的。1960年,R.A.霍华德对于一种马尔可夫决策过程模型,提出了适用的策略迭代法,给出了相应的收敛性证明。后来,发现策略迭代法和牛顿迭代法在一定条件下的等价性,于是,从算子方程的牛顿逼近法的角度去研究策略迭代法,得到了发展。
对于范围很广的一类马尔可夫决策过程,其动态规划基本方程可以写成;式中??∈V,对所有 γ∈Γ:r(γ)∈V,γ为 V→V的线性算子,Γ为这种算子的族,而V 则是由指标值函数所构造的函数空间。假设当 ??(γ)是方程 r(γ)+γ??=0 的解时, 它是对应于策略γ的指标值函数。最优策略 γ定义为最优值问题的解。这时由策略迭代法所求得的序列 {??n}和{γn}满足下列关系其中为 γn+1的逆算子。当σ是加托可微时, γn+1是σ在??n处的加托导数。于是,上面的关系恰好表达了牛顿迭代法在算子方程中的推广。
例如,在最短路径问题中,设给定M个点1,2,...,M。点M是目的点,сij>0是点i到点j的距离i≠j,сij=0,i,j=1,2,...,M,要求出点i到点M的最短路。记??(i)为从i到M的最短路长度。此问题的动态规划基本方程为
(1)其策略迭代法的程序如下:选定一初始策略u0(i),在这问题中,策略u(i)的意义是从点i出发走一步后到达的点,而且作为策略,它是集{1,2,...,M-1}上的函数。由u0(i)解下列方程组求出相应的值函数??0(i):
再由??0(i)求改进的一次迭代策略u1(i),使它是下列最小值问题的解:然后,再如前面一样,由u1(i)求出相应的值函数??1(i),并由??1(i)求得改进的二次迭代策略u2(i),如此继续下去。 可见求解(1)的策略迭代法的程序由下列两个基本步骤组成:
①求值计算 由策略 un(i)求相应的值函数??n(i),即求下列方程的解:
②策略改进 由值函数??n(i)求改进的策略,即求下列最小值问题的解:式中规定,如un(i)是上一问题的解,则取un+1(i)=un(i)。
在一定条件下,由任选的初始策略出发,轮换进行这两个步骤, 经有限步N后将得出对所有i,uN+1(i)=uN(i)这样求得的uN(i)就是最优策略,相应的值函数??N(i)。是方程(1)的解。
对于更一般形式的动态规划基本方程
(2)这里??,H,φ为给定实函数。上述两个步骤变成:
①求值计算 由策略un(x)求相应的值函数 ??n(x),即求方程 之解,n=0,1,2...。
②策略改进 由值函数??n(x)求改进的策略un+1(x),即求最优值问题的解。
对于满足适当条件的方程(2)和初始策略,上述两个步骤的解存在,并且在一定条件下,当n→ 时,所得序列{??n(x)}与{un(x)}在某种意义下分别收敛于(2)的解和最优策略。
策略迭代法最初是由R.贝尔曼提出的。1960年,R.A.霍华德对于一种马尔可夫决策过程模型,提出了适用的策略迭代法,给出了相应的收敛性证明。后来,发现策略迭代法和牛顿迭代法在一定条件下的等价性,于是,从算子方程的牛顿逼近法的角度去研究策略迭代法,得到了发展。
对于范围很广的一类马尔可夫决策过程,其动态规划基本方程可以写成;式中??∈V,对所有 γ∈Γ:r(γ)∈V,γ为 V→V的线性算子,Γ为这种算子的族,而V 则是由指标值函数所构造的函数空间。假设当 ??(γ)是方程 r(γ)+γ??=0 的解时, 它是对应于策略γ的指标值函数。最优策略 γ定义为最优值问题的解。这时由策略迭代法所求得的序列 {??n}和{γn}满足下列关系其中为 γn+1的逆算子。当σ是加托可微时, γn+1是σ在??n处的加托导数。于是,上面的关系恰好表达了牛顿迭代法在算子方程中的推广。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条