1) modification of shepard
改进Shepard近邻法
2) modified Shepard method
改进Shepard算法
3) improved nearest neighbor classifier
改进近邻
4) improved nearest neighbor
改进的最近邻算法
5) Improved Adaptive K Near Neighbor Clustering Algorithm(AKNNCA)
改进自适应k近邻聚类算法(IAKNNCA)
6) proved nearest neighborhood clustering algorithm
改进的最近邻域聚类算法
补充资料:近邻法分类
对被识别样本某个给定近邻域中的已知类别的学习样本数量进行统计,并以其中数量最多的那一类作为分类结果的分类方法。对 k个被识别样本的近邻学习样本进行计算时,假设离被识别样本最近的5个学习样本中有3个属于某类,就把被识别样本判别为该类。当k等于1时,就是通常所说的最近邻规则,即被识别样本离哪一类的学习样本最近,就把它分到哪一类(见最小距离分类)。设R1,R2...,R0分别是已知类别的c个学习样本集合,每个集合Rj中有uj个特征向量,用x忋表示,k=1,2,...,uj。在用最近邻规则时,可以定义被识别特征向量y与Rj之间的距离为
式中‖·‖是给定的一种距离度量。分类器把被识别模式分类到d(y, Rj)值最小的那一类中去。当用欧氏距离作为距离度量时,可以证明这种方法实质上是一种分段线性分类器。理论分析表明,当学习样本无限增加时,用最近邻规则分类的结果,其误识率(错分率)不会超过贝叶斯分类器误识率的两倍。
式中‖·‖是给定的一种距离度量。分类器把被识别模式分类到d(y, Rj)值最小的那一类中去。当用欧氏距离作为距离度量时,可以证明这种方法实质上是一种分段线性分类器。理论分析表明,当学习样本无限增加时,用最近邻规则分类的结果,其误识率(错分率)不会超过贝叶斯分类器误识率的两倍。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条