1) measuring information entropy
测量信息熵
1.
The measuring information entropy and the error entropy are defined and their relationship is gived.
研究了用信息集合和信息熵模型表征测量数据不确定度、被测量值和测量结果的方法,以及被测量信息熵、测量误差熵和测量结果信息熵的内涵、相互关系和求解方法。
2) entropy
[英]['entrəpi] [美]['ɛntrəpɪ]
熵;平均信息量,信息熵
3) entropy
[英]['entrəpi] [美]['ɛntrəpɪ]
①熵 ②平均信息量
4) measurement information
测量信息
1.
According to the analysis of MRIL_Primer logging data and the thorough research of NMR logging data processing method,this paper figures out the survey method,initial measurement information and data record method,and proposes a series of key techniques and 7 steps from initial measurement signal processing in time domain to echo signal curve in depth domain.
根据MRIL_Primer测井数据的解剖分析与核磁测井数据处理方法的深入研究,弄清了该测井仪的测量方式,原始测量信息与数据记录方式,提出了从时间域原始测量信号数据处理到深度域回波信号曲线的一系列关键技术与7个步骤。
2.
Combined with the information theory, the measurement effect can be evaluated by interactive information entropy, so the concept of measurement information is proposed.
结合信息论理论,提出了采用互信息熵来度量和评价测量效果,形成了测量信息的基本概念。
补充资料:信息熵(informationentropy)
信息熵(informationentropy)
是信息论中信息量的统计表述。香农(Shannon)定义信息量为:`I=-Ksum_ip_ilnp_i`,表示信息所消除的不确定性(系统有序程度)的量度,K为待定常数,pi为事件出现的概率,$sump_i=1$。对于N个等概率事件,pi=1/N,系统的信息量为I=-Klnpi=KlnN。平衡态时系统热力学函数熵的最大值为$S=-ksum_iW_ilnW_i=kln\Omega$,k为玻尔兹曼常数,Wi=1/Ω为系统各状态的概率,$sum_iW_i=1$,Ω为系统状态数,熵是无序程度的量度。信息量I与熵S具有相同的统计意义。设K为玻尔兹曼常数k,则信息量I可称信息熵,为$H=-ksum_ip_ilnp_i$,信息给系统带来负熵。如取K=1,对数底取2,熵的单位为比特(bit);取底为e,则称尼特。信息熵是生命系统(作为非平衡系统)在形成有序结构——耗散结构时,所接受的负熵的一部分。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条