说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 非监督纹理分割
1)  unsupervised texture segmentation
非监督纹理分割
1.
By applying the unsupervised texture segmentation method on each texture image,a set of texture feature parameter for texture image can be extracted automatically.
通过对每一纹理图像进行这种非监督纹理分割,提取纹理的特征向量,然后基于这些参数,运用假设检验进行纹理的分类和融合。
2.
A new unsupervised texture segmentation method is proposed by using Gabor wavelet.
提出了一种新的基于Gabor小波的非监督纹理分割方法,与传统Gabor方法相比,该方法最大的特点在于分割的过程中利用了纹理尺度之间的依存关系和像素之间的空间约束关系。
2)  unsupervised texture segmentation
无监督纹理分割
1.
Unsupervised texture segmentation based on Gauss\|Markov random field and neural network;
基于高斯-马尔可夫随机场和神经网络的无监督纹理分割
3)  Unsupervised Texture Image Segmentation
无监督纹理图像分割
4)  unsupervised image segmentation
非监督图像分割
5)  supervised texture classification
有监督纹理分类
6)  unsupervised segmentation
无监督分割
1.
Multiresolution likelihood ratio for unsupervised segmentation of SAR imagery;
基于广义多分辨似然比的SAR图像无监督分割
2.
An unsupervised segmentation of SAR imagery based on Multiscale image block is proposed.
提出了一种基于多尺度图像块的SAR图像无监督分割方法。
3.
This paper proposes an unsupervised segmentation algorithm for high-dimension time series.
提出一种针对高维时间序列的无监督分割算法,用于解决高维数据符号化的预处理问题。
补充资料:非监督学习


非监督学习
unsupervised learning

  feiJ一andu xuex!非监督学习【unsupe脚i刘l~ing)在没有类别信息情况下,通过对所研究对象的大量样本的数据分析实现对样本分类的一种数据处理方法。 由于在很多实际应用中,缺少所研究对象类别形成过程的知识,或者为了判断各个样本(模式)所属的类别需要很大的工作量(例如卫星遥感照片上各象元所对应的地面情况),因此往往只能用无类别标签的样本集进行学习。通过无监督学习,把样本集划分为若干个子集(类别),从而直接解决了样本的分类问题,或者把它作为训练样本集,再用监督学习方法进行分类器设计。无监督学习主要有以下两大类方法: (l)基于概率密度函数估计的直接方法 如果给定的样本集是由各类都服从高斯分布的样本混合在一起组成的,在类别数已知的条件下,可以用最大似然法或浅yes估计方法,从混合的概率密度函数中分解出各个类的概率密度函数,然后用玫yes决策方法设计模式分类器。在非高斯概率分布情况下,只要各类的概率密度函数的形式已知,且分解是唯一的,都可以用上述方法实现分类器设计。在没有任何概率分布先验知识的情况下,可以把特征空间划分为若干个区域,使每个区域都具有单峰的分布性质,每一个区域就相当于一个类别。这样作的基础是紧致性假设(参见模式分类器)。已经有多种算法实现这种区域的划分。 (2)基于样本间相似性度量的间接聚类方法 如果用样本在特征空间中相互间的距离来度量样本间的相似度,就可以设计出某种评价分类质量的准则函数,通过数学方法把特征空间划分为与各个类别相对应的区域,也就是通常所说的康典介析。有两大类基本的聚类分析算法,即迭代的动态聚类算法和非迭代的分级聚类算法。前者是给定某个样本集的初始划分,计算反映聚类质量的准则函数值。如果把某个样本从原来所属的类别改属为另一个类别能使准则函数值向好的方向改进,则改变这个样本原来的类别为新的类别(新的划分)再对其它样本进行类似的运算。这样反复迭代,直到没有一个样本类别的改变能改进准则函数值,即已经达到了准则函数的最优值。这一类算法中著名的有C一均值算法和I以卫叭TA算法,C一均值算法要求类别数预先给定,并把各样本到所属类别样本子集的均值向量的距离平方和作为评价聚类质量的准则函数。I90DAI,A算法可以自动地调整类别数,并可对各类样本的某些统计性质(如样本数量、样本特征的标准偏差等)作些限制。非迭代的分级聚类算法:第一步把每一个样本都看成一个类,给定两类样本间相似度计算方法,计算类与类之间的相似度。第二步把其中相似度最大的两个类合并为一个类.再计茸新的类与类之间的相似度。第三步再把其中相似度最大的两个类合并为一个类,依此进行下去,直到把所有的样本都合为一类为止。根据问题的性质以及各级的相似度大小,就可以确定合理的聚类差别数和各类所包含的样本。在应用分级聚类算法时要选择适当的类与类间相似度计算方法,不同的计算方法会导致完全不同的聚类结果。 聚类分析是无监督学习的主要方法,它能从大量的数据集中找出有规律性的结果。为了适应各种实际间题的数据结构的特点,还发展了以上述方法为基础的各种其它算法。
  
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条