3) NNPLS
神经网络偏最小二乘法
1.
Compared with PLS and NN,the NNPLS method can achieve higher imitating precision and smaller prediction errors.
分析了顾客满意度测评模型中各变量间存在的非线性关系,将神经网络偏最小二乘法(NNPLS)应用到顾客满意度测评中。
2.
NNPLS is used to establish a number of non-linear model in different operating conditions and the whole non-linear system.
该方法基于有源自回归(Auto-Re-gressive with extra inputs,ARX)模型与模糊C-均值(Fuzzy C-Means,FCM)聚类方法识别操作工况,在不同操作工况分别采用神经网络偏最小二乘法NNPLS(Neural Net Partial Least Square),建立多个非线性子模型拟和系统全局非线性。
4) Least squares method
最小二乘法
1.
Virtual boundary element least squares method for solving elastic coupling problem of different materials;
不同材料契合弹性力学问题的虚边界元最小二乘法
2.
Application to harmonics statistic with orthogonal polynomials series based on least squares method;
基于最小二乘法的正交多项式级数在谐波估计中的应用
3.
Watermarking Techniques Based on the Least Squares Method;
基于最小二乘法的数字水印方法
5) least squares
最小二乘法
1.
Application of Least Squares in ENOB Measurement;
最小二乘法在有效转换位数测试中的应用
2.
Based on the principle of least squares regression analysis blasting vibration;
基于最小二乘法原理的爆破震动回归分析
3.
XAES data for the carbon species formed over Ga-Mo/HZSM-S catalyst are numerically treated by the procedures of the convolution and least squares.
通过卷积法和最小二乘法,处理Ga-Mo/HZSM-5催化剂上形成碳的XAES数据。
6) least square
最小二乘法
1.
License plate slant correction method based on least square and principal component analysis;
基于最小二乘法和主元分析的车牌倾斜校正方法
2.
Inversion of GA and least square for resistivity sounding data;
电阻率测深数据的遗传算法和最小二乘法反演
3.
Parameter inversion of rock creep model based on PSO-least square method
基于粒子群-最小二乘法的岩石流变模型参数反演
补充资料:非线性最小二乘法
以误差的平方和最小为准则来估计非线性静态模型参数的一种参数估计方法。设非线性系统的模型为
y=f(x,θ)
式中y是系统的输出,x是输入,θ是参数(它们可以是向量)。这里的非线性是指对参数θ的非线性模型,不包括输入输出变量随时间的变化关系。在估计参数时模型的形式f是已知的,经过N次实验取得数据(x1,y1),(x2,y1),...,(xn,yn)。估计参数的准则(或称目标函数)选为模型的误差平方和
非线性最小二乘法就是求使Q达到极小的参数估计值孌。
由于 f的非线性,所以不能象线性最小二乘法那样用求多元函数极值的办法来得到参数估计值,而需要采用复杂的优化算法来求解。常用的算法有两类,一类是搜索算法,另一类是迭代算法。
搜索算法的思路是:按一定的规则选择若干组参数值,分别计算它们的目标函数值并比较大小;选出使目标函数值最小的参数值,同时舍弃其他的参数值;然后按规则补充新的参数值,再与原来留下的参数值进行比较,选出使目标函数达到最小的参数值。如此继续进行,直到选不出更好的参数值为止。以不同的规则选择参数值,即可构成不同的搜索算法。常用的方法有单纯形搜索法、复合形搜索法、随机搜索法等。
迭代算法是从参数的某一初始猜测值θ(0)出发,然后产生一系列的参数点θ(1)、θ(2)...,如果这个参数序列收敛到使目标函数极小的参数点孌,那么对充分大的N就可用θ(N) 作为孌。迭代算法的一般步骤是:
① 给出初始猜测值θ(0),并置迭代步数i=1。
② 确定一个向量v(i)作为第i步的迭代方向。
③ 用寻优的方法决定一个标量步长ρ(i),使得 Q(θ(i))<Q(θ(i)),其中θ(i)=θi-1+ρ(i)v(i)。
④ 检查停机规则是否满足,如果不满足,则将i加1再从②开始重复;如果满足,则取θ(i)为孌。
典型的迭代算法有牛顿-拉夫森法、高斯迭代算法、麦夸特算法、变尺度法等。
非线性最小二乘法除可直接用于估计静态非线性模型的参数外,在时间序列建模、连续动态模型的参数估计中,也往往遇到求解非线性最小二乘问题。
y=f(x,θ)
式中y是系统的输出,x是输入,θ是参数(它们可以是向量)。这里的非线性是指对参数θ的非线性模型,不包括输入输出变量随时间的变化关系。在估计参数时模型的形式f是已知的,经过N次实验取得数据(x1,y1),(x2,y1),...,(xn,yn)。估计参数的准则(或称目标函数)选为模型的误差平方和
非线性最小二乘法就是求使Q达到极小的参数估计值孌。
由于 f的非线性,所以不能象线性最小二乘法那样用求多元函数极值的办法来得到参数估计值,而需要采用复杂的优化算法来求解。常用的算法有两类,一类是搜索算法,另一类是迭代算法。
搜索算法的思路是:按一定的规则选择若干组参数值,分别计算它们的目标函数值并比较大小;选出使目标函数值最小的参数值,同时舍弃其他的参数值;然后按规则补充新的参数值,再与原来留下的参数值进行比较,选出使目标函数达到最小的参数值。如此继续进行,直到选不出更好的参数值为止。以不同的规则选择参数值,即可构成不同的搜索算法。常用的方法有单纯形搜索法、复合形搜索法、随机搜索法等。
迭代算法是从参数的某一初始猜测值θ(0)出发,然后产生一系列的参数点θ(1)、θ(2)...,如果这个参数序列收敛到使目标函数极小的参数点孌,那么对充分大的N就可用θ(N) 作为孌。迭代算法的一般步骤是:
① 给出初始猜测值θ(0),并置迭代步数i=1。
② 确定一个向量v(i)作为第i步的迭代方向。
③ 用寻优的方法决定一个标量步长ρ(i),使得 Q(θ(i))<Q(θ(i)),其中θ(i)=θi-1+ρ(i)v(i)。
④ 检查停机规则是否满足,如果不满足,则将i加1再从②开始重复;如果满足,则取θ(i)为孌。
典型的迭代算法有牛顿-拉夫森法、高斯迭代算法、麦夸特算法、变尺度法等。
非线性最小二乘法除可直接用于估计静态非线性模型的参数外,在时间序列建模、连续动态模型的参数估计中,也往往遇到求解非线性最小二乘问题。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条