说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 条件信息熵
1)  conditional information entropy
条件信息熵
1.
Classification algorithm for self-learning Nave Bayes based on conditional information entropy;
基于条件信息熵的自主式朴素贝叶斯分类算法
2.
Relationship between roughness of knowledge and conditional information entropy
知识粗糙性和条件信息熵的关系
3.
The feature parameters are predigested by applying conditional information entropy arithmetic derived from rough set,and key feature parameters are extracted at first.
首先利用粗糙集理论中的条件信息熵算法对系统特征参数进行了约简,提取出了关键特征参数,在此基础上再利用支持向量机算法对武器系统效能进行了评定。
2)  the condition entropy of sample information
抽样信息的条件熵
3)  words information entropy
词条信息熵
4)  information conditions
信息条件
5)  conditional information quantity
条件信息量
1.
Attribute reduction algorithm based on new conditional information quantity;
一种基于新的条件信息量的属性约简算法
2.
To improve the efficiency of attribute reduction,a rapid reduction algorithm based on conditional information quantity is proposed.
为提高粗集约简的效率,提出了一种基于条件信息量的快速粗集约简算法。
3.
Basic concept of rough set theory is presented,including equivalent relationship and conditional information quantity.
介绍了粗糙集理论的基本概念,包括等价关系、划分、条件信息量等。
6)  conditional mutual information
条件互信息
1.
BSNBC classifying algorithm measured by conditional mutual information;
条件互信息度量BSNBC分类学习算法
2.
Improved feature selection algorithm with conditional mutual information;
一种改进的基于条件互信息的特征选择算法
补充资料:信息熵(informationentropy)
信息熵(informationentropy)

是信息论中信息量的统计表述。香农(Shannon)定义信息量为:`I=-Ksum_ip_ilnp_i`,表示信息所消除的不确定性(系统有序程度)的量度,K为待定常数,pi为事件出现的概率,$sump_i=1$。对于N个等概率事件,pi=1/N,系统的信息量为I=-Klnpi=KlnN。平衡态时系统热力学函数熵的最大值为$S=-ksum_iW_ilnW_i=kln\Omega$,k为玻尔兹曼常数,Wi=1/Ω为系统各状态的概率,$sum_iW_i=1$,Ω为系统状态数,熵是无序程度的量度。信息量I与熵S具有相同的统计意义。设K为玻尔兹曼常数k,则信息量I可称信息熵,为$H=-ksum_ip_ilnp_i$,信息给系统带来负熵。如取K=1,对数底取2,熵的单位为比特(bit);取底为e,则称尼特。信息熵是生命系统(作为非平衡系统)在形成有序结构——耗散结构时,所接受的负熵的一部分。

说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条