1) least square method explicit solution
最小二乘法显式解
1.
Then the least square method explicit solutions of error network are given, and the CAT (Computer Aided Test) of error network parameters is realized.
分析了微波测量线误差校正的方法 ,提出了仅用小反射滑动负载即可确定测量线误差网络参数的新方法 ,给出了测量线误差网络参数的最小二乘法显式解 ,并实现了测量线误差网络参数的CAT(ComputerAidedTest) 。
2) least squares solution
最小二乘解
1.
An iterative method for the least squares solutions of a pair of matrix equations and its optimal approximation;
矩阵方程组的最小二乘解及其最佳逼近的迭代算法
2.
Acquires the least squares solutions of the matrix equation AXB=E,CXD=F by constructing the normal equation of the matrix equation and applying the generalized singular-value decomposition of coefficient matrices.
借助于矩阵方程AXB=E,CXD=F的正规方程及系数矩阵的广义奇异值分解,得到了此矩阵方程的最小二乘解。
3.
The least squares solution of inverse problems of generalized skew symmetric matrices and It s optimal approximation problems are discussed.
讨论了线性流形上广义次对称矩阵反问题的最小二乘解及其逼近问题 。
3) least square solution
最小二乘解
1.
The conclusion that the force Jacobian calibration is to solve least square solution of overdetermined linear equations.
建立了并联天平的静态标定数学模型,得出力雅可比矩阵标定的实质是求解超定线性方程组最小二乘解的结论。
2.
In this paper,for a right system of linear equations Ax=b over the quaternion field,we discuss, under the condition of a positive definite weight,the solutions with minimal N-norms, the M-least square solutions and in particular, the M-least square solutions with minimal N-norms.
讨论了四元数体上右线性方程组的加正定权的极小范数解、最小二乘解和极小范数最小二乘解。
3.
Then by using the properties of the generalization reflexive (antireflexive) matrices the problems are discussed that least square solutions of systems of linear equation AX=b, matrices equation AX=B and AXB=C.
在四元数体Ω上引入了自反向量、自反矩阵和广义自反矩阵等概念,利用广义自反矩阵和广义反自反矩阵的性质讨论了线性方程组AX =b、矩阵方程AX =B及AXB =C的最小二乘解问题:当A为广义自反矩阵或广义反自反矩阵时,可将线性方程组AX =b的最小二乘解问题化为两个较小独立的子问题去讨论;当A、B都是广义自反矩阵或广义反自反矩阵时,可将矩阵方程AX =B的最小二乘解问题化为线性方程组的最小二乘解问题去讨论。
4) least-square solution
最小二乘解
1.
The least-square solution of the matrix equation A~TXA=D in anti-symmetric and persymmetric matrix;
矩阵方程A~TXA=D的反对称次对称最小二乘解
2.
The least-square solution of matrix equation A~TXB-B~TX~TA=D;
矩阵方程A~TXB-B~TX~TA=D 的最小二乘解
3.
Least-Square Solution to the Inverse Problem of Generalized Centro-anti-symmetric Matrices;
广义中心反对称矩阵反问题的最小二乘解
5) least-square solutions
最小二乘解
1.
By applying the generalized singular value decomposition,the expression of the weighted least-square solutions of a matrix equation is provided.
利用矩阵的广义奇异值分解,得到了一类矩阵方程的加权最小二乘解的一般表达式,以及能够对给定矩阵进行最佳逼近的解矩阵。
2.
Given matrix X,Y and B, the anti-centrosymmetric least-square solutions A of inverse problem YAX = B are considered.
给定矩阵Y,X和B,得到了矩阵方程YAX=B的反中心对称最小二乘解。
6) least-squares solution
最小二乘解
1.
The least-squares solutions of inverse problems for generalized(R,S)-symmetric matrices;
广义(R,S)-对称矩阵反问题的最小二乘解
2.
The least-squares solutions of inverse problems for anti-skew-symmetric on the linear manifold;
线性流形上反次对称矩阵反问题的最小二乘解
3.
Least-squares Solution of the Matrix Equation [A_1XB_1,A_2XB_2]=[C,D];
矩阵方程组[A_1XB_1,A_2XB_2]=[C,D]的最小二乘解
补充资料:非线性最小二乘法
以误差的平方和最小为准则来估计非线性静态模型参数的一种参数估计方法。设非线性系统的模型为
y=f(x,θ)
式中y是系统的输出,x是输入,θ是参数(它们可以是向量)。这里的非线性是指对参数θ的非线性模型,不包括输入输出变量随时间的变化关系。在估计参数时模型的形式f是已知的,经过N次实验取得数据(x1,y1),(x2,y1),...,(xn,yn)。估计参数的准则(或称目标函数)选为模型的误差平方和
非线性最小二乘法就是求使Q达到极小的参数估计值孌。
由于 f的非线性,所以不能象线性最小二乘法那样用求多元函数极值的办法来得到参数估计值,而需要采用复杂的优化算法来求解。常用的算法有两类,一类是搜索算法,另一类是迭代算法。
搜索算法的思路是:按一定的规则选择若干组参数值,分别计算它们的目标函数值并比较大小;选出使目标函数值最小的参数值,同时舍弃其他的参数值;然后按规则补充新的参数值,再与原来留下的参数值进行比较,选出使目标函数达到最小的参数值。如此继续进行,直到选不出更好的参数值为止。以不同的规则选择参数值,即可构成不同的搜索算法。常用的方法有单纯形搜索法、复合形搜索法、随机搜索法等。
迭代算法是从参数的某一初始猜测值θ(0)出发,然后产生一系列的参数点θ(1)、θ(2)...,如果这个参数序列收敛到使目标函数极小的参数点孌,那么对充分大的N就可用θ(N) 作为孌。迭代算法的一般步骤是:
① 给出初始猜测值θ(0),并置迭代步数i=1。
② 确定一个向量v(i)作为第i步的迭代方向。
③ 用寻优的方法决定一个标量步长ρ(i),使得 Q(θ(i))<Q(θ(i)),其中θ(i)=θi-1+ρ(i)v(i)。
④ 检查停机规则是否满足,如果不满足,则将i加1再从②开始重复;如果满足,则取θ(i)为孌。
典型的迭代算法有牛顿-拉夫森法、高斯迭代算法、麦夸特算法、变尺度法等。
非线性最小二乘法除可直接用于估计静态非线性模型的参数外,在时间序列建模、连续动态模型的参数估计中,也往往遇到求解非线性最小二乘问题。
y=f(x,θ)
式中y是系统的输出,x是输入,θ是参数(它们可以是向量)。这里的非线性是指对参数θ的非线性模型,不包括输入输出变量随时间的变化关系。在估计参数时模型的形式f是已知的,经过N次实验取得数据(x1,y1),(x2,y1),...,(xn,yn)。估计参数的准则(或称目标函数)选为模型的误差平方和
非线性最小二乘法就是求使Q达到极小的参数估计值孌。
由于 f的非线性,所以不能象线性最小二乘法那样用求多元函数极值的办法来得到参数估计值,而需要采用复杂的优化算法来求解。常用的算法有两类,一类是搜索算法,另一类是迭代算法。
搜索算法的思路是:按一定的规则选择若干组参数值,分别计算它们的目标函数值并比较大小;选出使目标函数值最小的参数值,同时舍弃其他的参数值;然后按规则补充新的参数值,再与原来留下的参数值进行比较,选出使目标函数达到最小的参数值。如此继续进行,直到选不出更好的参数值为止。以不同的规则选择参数值,即可构成不同的搜索算法。常用的方法有单纯形搜索法、复合形搜索法、随机搜索法等。
迭代算法是从参数的某一初始猜测值θ(0)出发,然后产生一系列的参数点θ(1)、θ(2)...,如果这个参数序列收敛到使目标函数极小的参数点孌,那么对充分大的N就可用θ(N) 作为孌。迭代算法的一般步骤是:
① 给出初始猜测值θ(0),并置迭代步数i=1。
② 确定一个向量v(i)作为第i步的迭代方向。
③ 用寻优的方法决定一个标量步长ρ(i),使得 Q(θ(i))<Q(θ(i)),其中θ(i)=θi-1+ρ(i)v(i)。
④ 检查停机规则是否满足,如果不满足,则将i加1再从②开始重复;如果满足,则取θ(i)为孌。
典型的迭代算法有牛顿-拉夫森法、高斯迭代算法、麦夸特算法、变尺度法等。
非线性最小二乘法除可直接用于估计静态非线性模型的参数外,在时间序列建模、连续动态模型的参数估计中,也往往遇到求解非线性最小二乘问题。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条