说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 半监督的学习模型
1)  a semi-supervised learning model
半监督的学习模型
2)  semi-supervised learning
半监督学习
1.
Making use of the unlabeled data in the semi-supervised learning;
半监督学习中非标记数据的利用
2.
Application based on semi-supervised learning algorithm to land evaluation;
半监督学习算法在农用地分等中的应用
3.
JPEG steganalysis based on Tri-training semi-supervised learning;
基于Tri-training半监督学习的JPEG隐密分析方法
3)  semi-supervised machine learning
半监督机器学习
1.
This paper applied the technologies of kernelised valid index,sparse format and semi-supervised machine learning to develop an improved text clustering algorithm.
针对传统FKCM(Fuzzy Kernel C-Means)算法中所存在的聚类数目需要事先确定、易陷入局部最优、收敛速度缓慢、对孤立点敏感等缺陷,利用核化有效性指标、稀疏格式、半监督机器学习等技术对FKCM算法进行了改进。
4)  Semi-Supervised Active Learning
半监督主动学习
1.
Co-Training Semi-Supervised Active Learning Algorithm with Noise Filter
具有噪声过滤功能的协同训练半监督主动学习算法
5)  supervised learning
监督学习
1.
Land evaluation based on agglomerative hierarchical cluster algorithm combining with supervised learning algorithm;
融合监督学习与凝聚层次聚类的土地评价方法
2.
Aimed at the problem of electroencephalography(EEG) pattern recognition in brain computer interfaces(BCIs),a classification method based on probabilistic neural network(PNN) with supervised learning was presented.
针对脑机接口(BCI)研究中脑电信号(EEG)的模式识别问题,提出了一种基于有监督学习的概率神经网络(PNN)的分类方法。
3.
The learning of connectionism,which consists mainly of supervised learning,intensive learning and unsupervised learning,is modelled after the learning of human beings.
其学习是对人类学习的模拟,主要有监督学习、强化学习和无监督学习三种。
6)  monitoring learning
监督性学习
补充资料:非监督学习


非监督学习
unsupervised learning

  feiJ一andu xuex!非监督学习【unsupe脚i刘l~ing)在没有类别信息情况下,通过对所研究对象的大量样本的数据分析实现对样本分类的一种数据处理方法。 由于在很多实际应用中,缺少所研究对象类别形成过程的知识,或者为了判断各个样本(模式)所属的类别需要很大的工作量(例如卫星遥感照片上各象元所对应的地面情况),因此往往只能用无类别标签的样本集进行学习。通过无监督学习,把样本集划分为若干个子集(类别),从而直接解决了样本的分类问题,或者把它作为训练样本集,再用监督学习方法进行分类器设计。无监督学习主要有以下两大类方法: (l)基于概率密度函数估计的直接方法 如果给定的样本集是由各类都服从高斯分布的样本混合在一起组成的,在类别数已知的条件下,可以用最大似然法或浅yes估计方法,从混合的概率密度函数中分解出各个类的概率密度函数,然后用玫yes决策方法设计模式分类器。在非高斯概率分布情况下,只要各类的概率密度函数的形式已知,且分解是唯一的,都可以用上述方法实现分类器设计。在没有任何概率分布先验知识的情况下,可以把特征空间划分为若干个区域,使每个区域都具有单峰的分布性质,每一个区域就相当于一个类别。这样作的基础是紧致性假设(参见模式分类器)。已经有多种算法实现这种区域的划分。 (2)基于样本间相似性度量的间接聚类方法 如果用样本在特征空间中相互间的距离来度量样本间的相似度,就可以设计出某种评价分类质量的准则函数,通过数学方法把特征空间划分为与各个类别相对应的区域,也就是通常所说的康典介析。有两大类基本的聚类分析算法,即迭代的动态聚类算法和非迭代的分级聚类算法。前者是给定某个样本集的初始划分,计算反映聚类质量的准则函数值。如果把某个样本从原来所属的类别改属为另一个类别能使准则函数值向好的方向改进,则改变这个样本原来的类别为新的类别(新的划分)再对其它样本进行类似的运算。这样反复迭代,直到没有一个样本类别的改变能改进准则函数值,即已经达到了准则函数的最优值。这一类算法中著名的有C一均值算法和I以卫叭TA算法,C一均值算法要求类别数预先给定,并把各样本到所属类别样本子集的均值向量的距离平方和作为评价聚类质量的准则函数。I90DAI,A算法可以自动地调整类别数,并可对各类样本的某些统计性质(如样本数量、样本特征的标准偏差等)作些限制。非迭代的分级聚类算法:第一步把每一个样本都看成一个类,给定两类样本间相似度计算方法,计算类与类之间的相似度。第二步把其中相似度最大的两个类合并为一个类.再计茸新的类与类之间的相似度。第三步再把其中相似度最大的两个类合并为一个类,依此进行下去,直到把所有的样本都合为一类为止。根据问题的性质以及各级的相似度大小,就可以确定合理的聚类差别数和各类所包含的样本。在应用分级聚类算法时要选择适当的类与类间相似度计算方法,不同的计算方法会导致完全不同的聚类结果。 聚类分析是无监督学习的主要方法,它能从大量的数据集中找出有规律性的结果。为了适应各种实际间题的数据结构的特点,还发展了以上述方法为基础的各种其它算法。
  
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条