1) relative information entropy
相对信息熵
1.
Based on the criteria for the quality of diagram, the criterion of constructing best diagram, namely, maximum relative information entropy was proposed, and the method for the smoothing treatment of histogram was also created using the linear programming.
基于判断直方图好坏的3条准则,提出了一个构造最佳直方图的定量判据———最大相对信息熵判据,并利用线性规划方法探讨了直方图的平滑化处理。
2) correlation information entropy
相关信息熵
1.
The paper presents a new method using of correlation information entropy for sensor fault detection is proposed.
针对连续性过程系统中存在的大量强相关关系测点,根据测量数据间的关联特性,提出了一种应用相关信息熵进行传感器故障检测的方法。
3) The Study of Information Entropy
对信息熵的探讨
4) joint entropy
相关平均信息量,相关熵
5) Shannom entropy
信息熵(Shannom熵)
6) relative information quantity
相对信息量
1.
In this paper,the concept of the relative information quantity of decision table is introduced in the information system.
知识约简是粗糙集理论研究的主要内容之一,该文在信息系统中引入了知识的相对信息量的概念。
补充资料:信息熵
信息熵 information entropy 信息量的测度。根据人们的实践经验,一个事件给予人们的信息量多少,与这一事件发生的概率(可能性)大小有关。一个小概率事件的发生,给予人们的信息量就很多。相反,一个大概率事件的出现,给人们的信息量就很少。因此,用I(A)=-logp(A)〔p(A)表示事件A发生的概率〕来度量事件A给出的信息量,称为事件A的自信息量。若一次试验有m个可能结果(事件),或一个信源可能产生m个消息(事件),它们出现的概率分别为p1,p2,……,pm,则用H=-piogp来度量一次试验或一个消息所给出的平均信息量。H称为信息熵,由于H的表达式与熵的表达式差一个负号,故又称为负熵。 |
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条