1) iterative criterions and formula
迭代准则和迭代公式
2) iterative formula
迭代公式
1.
The Halley s iterative formula based on rational approximation;
基于有理逼近的Halley迭代公式
2.
The formulas of hy-draulic elements and iterative formulas of critical depths for standa.
导出了标准I,II型马蹄形过水断面水力要素分段计算公式和临界水深迭代公式,并提出判别临界水深范围的分界流量,便于生产实际中应用。
3.
This article discusses in detail the hydrate formation conditions and affecting factors, analyses hydrate predection method and the caculating models for hudrate formation temperature and pressure, including iterative formulas for calculating minimum temperature of hydrate no-formation according .
详尽地论述了水合物的形成条件以及影响因素,分析了查图法进行水合物预测的方法以及形成水合物的温度及压力的计算模型,包括已知压力求不生成水合物的最低温度和已知温度求生成水合物的最低压力的迭代公式,利用迭代公式自行编制了计算程序,并通过实例讲述了如何利用程序进行井口水合物生成预测计算,以及井筒内生成水合物井段的估算方法。
3) iteration formula
迭代公式
1.
In this paper,a new iteration formula and error estimate aboute system of linear equation are given.
本文给出了解线性方程组的新的迭代公式,并讨论了它的性质,提出了估计误差通式 。
2.
This paper gives the iteration formulas for Maslov-type index of hyperbolic closed characteristic on positive-type hypersurfaces in R~(2n).
本文给出了R~(2n)中规范正定型超曲面上双曲闭特征的Maslov型指标的迭代公式。
3.
In this paper, the intermediate value formulas for roots of equations are proved , the third-order convergent iteration formula is obtained.
本文证明了方程根的中值表示公式,并得到了3阶收敛迭代公式。
4) recursive formula
迭代公式
1.
Then we derive some recursive formulas.
讨论了非同质风险下的保单组合,在赔付次数采用混合泊松分布拟合时的两种情况下赔付额分布的计算,给出了相应的迭代公式。
2.
In this paper, the author discusses the calculation of aggregate claim amounts for two heterogeneous policies portfolios, by supposing that the claim number has a mixed Poisson distribution and then derives some recursive formulas.
对于两类非同质保单组合 ,现讨论在赔付次数采用混合泊松分布拟合的情况下赔付额分布的计算 ,并给出了相应的迭代公式 。
3.
In this dissertation a new recursive formula for computing normal forms based on the adjoint operator method of dynamical systems is first introduced.
本文在共轭算子法的基础上,推导出一个新的计算多维动力系统规范形的迭代公式。
5) non-iterative formulae
非迭代公式
1.
After developing them into complex numbers domain,non-iterative formulae with a very concise form for Gauss projection\'s forward and inverse transformations are also available.
引入了等量纬度反解的直接展开式,借助计算机代数系统Mathematica推导出了子午线弧长与等量纬度之间的关系式,并将其拓展至复数域,导出了形式紧凑、结构简单的高斯投影正反解非迭代公式,并在此基础上给出了适合计算机计算的表达式及其相关系数在不同参考椭球下的数值形式。
6) iteratire convergcnce criterion
迭代收敛准则
补充资料:策略迭代法
动态规划中求最优策略的基本方法之一。它借助于动态规划基本方程,交替使用"求值计算"和"策略改进"两个步骤,求出逐次改进的、最终达到或收敛于最优策略的策略序列。
例如,在最短路径问题中,设给定M个点1,2,...,M。点M是目的点,сij>0是点i到点j的距离i≠j,сij=0,i,j=1,2,...,M,要求出点i到点M的最短路。记??(i)为从i到M的最短路长度。此问题的动态规划基本方程为
(1)其策略迭代法的程序如下:选定一初始策略u0(i),在这问题中,策略u(i)的意义是从点i出发走一步后到达的点,而且作为策略,它是集{1,2,...,M-1}上的函数。由u0(i)解下列方程组求出相应的值函数??0(i):
再由??0(i)求改进的一次迭代策略u1(i),使它是下列最小值问题的解:然后,再如前面一样,由u1(i)求出相应的值函数??1(i),并由??1(i)求得改进的二次迭代策略u2(i),如此继续下去。 可见求解(1)的策略迭代法的程序由下列两个基本步骤组成:
①求值计算 由策略 un(i)求相应的值函数??n(i),即求下列方程的解:
②策略改进 由值函数??n(i)求改进的策略,即求下列最小值问题的解:式中规定,如un(i)是上一问题的解,则取un+1(i)=un(i)。
在一定条件下,由任选的初始策略出发,轮换进行这两个步骤, 经有限步N后将得出对所有i,uN+1(i)=uN(i)这样求得的uN(i)就是最优策略,相应的值函数??N(i)。是方程(1)的解。
对于更一般形式的动态规划基本方程
(2)这里??,H,φ为给定实函数。上述两个步骤变成:
①求值计算 由策略un(x)求相应的值函数 ??n(x),即求方程 之解,n=0,1,2...。
②策略改进 由值函数??n(x)求改进的策略un+1(x),即求最优值问题的解。
对于满足适当条件的方程(2)和初始策略,上述两个步骤的解存在,并且在一定条件下,当n→ 时,所得序列{??n(x)}与{un(x)}在某种意义下分别收敛于(2)的解和最优策略。
策略迭代法最初是由R.贝尔曼提出的。1960年,R.A.霍华德对于一种马尔可夫决策过程模型,提出了适用的策略迭代法,给出了相应的收敛性证明。后来,发现策略迭代法和牛顿迭代法在一定条件下的等价性,于是,从算子方程的牛顿逼近法的角度去研究策略迭代法,得到了发展。
对于范围很广的一类马尔可夫决策过程,其动态规划基本方程可以写成;式中??∈V,对所有 γ∈Γ:r(γ)∈V,γ为 V→V的线性算子,Γ为这种算子的族,而V 则是由指标值函数所构造的函数空间。假设当 ??(γ)是方程 r(γ)+γ??=0 的解时, 它是对应于策略γ的指标值函数。最优策略 γ定义为最优值问题的解。这时由策略迭代法所求得的序列 {??n}和{γn}满足下列关系其中为 γn+1的逆算子。当σ是加托可微时, γn+1是σ在??n处的加托导数。于是,上面的关系恰好表达了牛顿迭代法在算子方程中的推广。
例如,在最短路径问题中,设给定M个点1,2,...,M。点M是目的点,сij>0是点i到点j的距离i≠j,сij=0,i,j=1,2,...,M,要求出点i到点M的最短路。记??(i)为从i到M的最短路长度。此问题的动态规划基本方程为
(1)其策略迭代法的程序如下:选定一初始策略u0(i),在这问题中,策略u(i)的意义是从点i出发走一步后到达的点,而且作为策略,它是集{1,2,...,M-1}上的函数。由u0(i)解下列方程组求出相应的值函数??0(i):
再由??0(i)求改进的一次迭代策略u1(i),使它是下列最小值问题的解:然后,再如前面一样,由u1(i)求出相应的值函数??1(i),并由??1(i)求得改进的二次迭代策略u2(i),如此继续下去。 可见求解(1)的策略迭代法的程序由下列两个基本步骤组成:
①求值计算 由策略 un(i)求相应的值函数??n(i),即求下列方程的解:
②策略改进 由值函数??n(i)求改进的策略,即求下列最小值问题的解:式中规定,如un(i)是上一问题的解,则取un+1(i)=un(i)。
在一定条件下,由任选的初始策略出发,轮换进行这两个步骤, 经有限步N后将得出对所有i,uN+1(i)=uN(i)这样求得的uN(i)就是最优策略,相应的值函数??N(i)。是方程(1)的解。
对于更一般形式的动态规划基本方程
(2)这里??,H,φ为给定实函数。上述两个步骤变成:
①求值计算 由策略un(x)求相应的值函数 ??n(x),即求方程 之解,n=0,1,2...。
②策略改进 由值函数??n(x)求改进的策略un+1(x),即求最优值问题的解。
对于满足适当条件的方程(2)和初始策略,上述两个步骤的解存在,并且在一定条件下,当n→ 时,所得序列{??n(x)}与{un(x)}在某种意义下分别收敛于(2)的解和最优策略。
策略迭代法最初是由R.贝尔曼提出的。1960年,R.A.霍华德对于一种马尔可夫决策过程模型,提出了适用的策略迭代法,给出了相应的收敛性证明。后来,发现策略迭代法和牛顿迭代法在一定条件下的等价性,于是,从算子方程的牛顿逼近法的角度去研究策略迭代法,得到了发展。
对于范围很广的一类马尔可夫决策过程,其动态规划基本方程可以写成;式中??∈V,对所有 γ∈Γ:r(γ)∈V,γ为 V→V的线性算子,Γ为这种算子的族,而V 则是由指标值函数所构造的函数空间。假设当 ??(γ)是方程 r(γ)+γ??=0 的解时, 它是对应于策略γ的指标值函数。最优策略 γ定义为最优值问题的解。这时由策略迭代法所求得的序列 {??n}和{γn}满足下列关系其中为 γn+1的逆算子。当σ是加托可微时, γn+1是σ在??n处的加托导数。于是,上面的关系恰好表达了牛顿迭代法在算子方程中的推广。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条