1) extended k-nearest neighbor classifier
扩展k阶近邻法
2) k-NN clustering
k阶近邻法(k-NN)
3) k-order neighboring relations
k阶邻近
1.
Object's warning and forecast method based on voronoi k-order neighboring relations
基于Voronoik阶邻近的目标预警预报方法
4) KNN
K近邻法
1.
At last, we recognize the vehicle with KNN.
首先对车辆图像进行预处理,然后通过KL变换构造特征车,将样本投影到特征车子空间,得到的投影系数即为待识别车型的代数特征,最后利用K近邻法进行车型识别。
5) K-nearest neighbor
K-近邻法
1.
When classifying the disturbances, the linear decision method and K-nearest neighbor method have the same shortcomings: enormous amounts of computation and storage as well as impaired classification accuracy.
在对扰动分类时,现有的分类线法和K-近邻法的共同缺点是计算量大和计算存储量大,由此也造成了分类准确率的下降。
6) (K-nearest) neighbor rule
K-近邻法则
补充资料:近邻法分类
对被识别样本某个给定近邻域中的已知类别的学习样本数量进行统计,并以其中数量最多的那一类作为分类结果的分类方法。对 k个被识别样本的近邻学习样本进行计算时,假设离被识别样本最近的5个学习样本中有3个属于某类,就把被识别样本判别为该类。当k等于1时,就是通常所说的最近邻规则,即被识别样本离哪一类的学习样本最近,就把它分到哪一类(见最小距离分类)。设R1,R2...,R0分别是已知类别的c个学习样本集合,每个集合Rj中有uj个特征向量,用x忋表示,k=1,2,...,uj。在用最近邻规则时,可以定义被识别特征向量y与Rj之间的距离为
式中‖·‖是给定的一种距离度量。分类器把被识别模式分类到d(y, Rj)值最小的那一类中去。当用欧氏距离作为距离度量时,可以证明这种方法实质上是一种分段线性分类器。理论分析表明,当学习样本无限增加时,用最近邻规则分类的结果,其误识率(错分率)不会超过贝叶斯分类器误识率的两倍。
式中‖·‖是给定的一种距离度量。分类器把被识别模式分类到d(y, Rj)值最小的那一类中去。当用欧氏距离作为距离度量时,可以证明这种方法实质上是一种分段线性分类器。理论分析表明,当学习样本无限增加时,用最近邻规则分类的结果,其误识率(错分率)不会超过贝叶斯分类器误识率的两倍。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条