1) feature vector selection
特征向量选择
1.
A fast principal component analysis method is proposed to solve the computation problem for kernel matrix K based on a multi-block feature vector selection.
针对核主成分分析方法(KPCA)存在大样本集的核矩阵K计算困难问题,提出一种基于分块特征向量选择的快速核主成分分析方法。
2.
Then a geometry-based feature vector selection(FVS) scheme was adopted to reduce the computational complexity of KFDA.
首先采样数据经过小波变换方法去除噪声,去除噪声后的数据进行KFDA建模,然后在建模同时采用特征向量选择(FVS)算法降低复杂性。
2) FFVS
快速特征向量选择
1.
In order to deal with it, a fast feature vector select (FFVS) scheme is adopted that divides the total images into several groups according to.
为了解决这一问题,提出一种快速特征向量选择法(FFVS)。
3) feature selection
特征变量选择
1.
The approach is composed of three phases:(1)feature selection is accomplished by the Simba algorithm;(2)the initial fuzzy system is identified using the fuzzy clustering algorithm;(3)the structure and parameters of the fuzzy system are optimized by the Pittsburgh-style real-coded genetic algorithm.
该方法由以下三步组成:(1)利用Simba算法进行特征变量选择;(2)采用模糊聚类算法辨识初始的模糊模型;(3)利用匹茨堡型实数编码的多目标遗传算法对初始模糊模型的结构和参数进行学习。
4) feature selection
特征选择
1.
Fast VQ algorithm for hyperspectral image compression based on feature selection;
基于特征选择的高光谱图像快速矢量量化算法
2.
A feature selection method based on ReliefF evaluation and complementary coefficient;
一种基于ReliefF评估和互补系数的特征选择算法
3.
Application of union adaptive algorithm based on PCA and rough set for feature selection in face recognition;
PCA和粗糙集的联合自寻优特征选择在人脸识别中的应用
6) feature extraction
特征选择
1.
After a brief introduction of the theories of Extension Matrix and Rough Set, Greedy Algorithm, and Heuristic search Algorithm, this paper compares their performance in signal feature extraction applications.
简单介绍了基于扩张理论和粗集理论的优化算法、“贪心算法”和启发式搜索算法等典型特征选择的优化算法,并比较它们的性能,在此基础上选择启发式搜索算法用于信号特征的选择。
2.
Traditional feature extraction method treats each feature separately and disregards the semantic feature such as relativity and comparability.
它的关键技术包括网页清洗、中文分词、特征选择、文本表示以及分类算法。
补充资料:特征值和特征向量
特征值和特征向量 characteristic value and characteristic vector 数学概念。若σ是线性空间V的线性变换,σ对V中某非零向量x的作用是伸缩 :σ(x)=aζ ,则称x是σ的属于a的特征向量 ,a称为σ的特征值。位似变换σk(即对V中所有a,有σk(a)=kα)使V中非零向量均为特征向量,它们同属特征值k;而旋转角θ(0<θ<π)的变换没有特征向量。可以通过矩阵表示求线性变换的特征值、特征向量。若A是n阶方阵,I是n阶单位矩阵,则称xI-A为A的特征方阵,xI-A的行列式 |xI-A|展开为x的n次多项式 fA(x)=xn-(a11+…+ann)xn-1+…+(-1)n|A|,称为A的特征多项式,它的根称为A的特征值。若λ0是A的一个特征值,则以λ0I-A为系数方阵的齐次方程组的非零解x称为A的属于λ的特征向量:Ax=λ0x。L.欧拉在化三元二次型到主轴的著作里隐含出现了特征方程概念,J.L.拉格朗日为处理六大行星运动的微分方程组首先明确给出特征方程概念。特征方程也称永年方程,特征值也称本征值、固有值。固有值问题在物理学许多部门是重要问题。线性变换或矩阵的对角化、二次型化到主轴都归为求特征值特征向量问题。每个实对称方阵的特征根均为实数。A.凯莱于19世纪中期通过对三阶方阵验证,宣告凯莱-哈密顿定理成立,即每个方阵A满足它的特征方程,fA(A)=An-(a11+…+ann)An-1+…+(-1)n|A|I=0。 |
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条