1) Shannon's entropy
香农的信息熵
2) Shannon entropy
香农信息熵
3) Shannon comentropy
申农信息熵
4) eatropy of information
信息的熵
5) Shannon information
香农信息量
1.
It utilizes multi-resolution method of wavelet to decomposition and reconstruction heart sound signal, adopts Shannon information to carry on the amount of information to reconstruction signal of every level, and has confirmed localization level of the heart sound backbone.
本课题在对目前心音信号分析方法进行讨论的基础上,采用小波变换对心音信号进行分析,利用小波的多分辨率分析对心音信号进行分解重构,并采用香农信息量对各层信号进行信息量统计,确定了心音主要成分的定位层,利用Reimann sum的方法完成对心音信号的定位。
6) Shannon's theorem
香农理论(信息论的)
补充资料:仙农熵
分子式:
CAS号:
性质:是美国工程师仙农(C. E. Shannon)在1948年首先提出的关于信息量定量化的测度。信息是指对事物认识“不肯定性”的减少,因此可用事件x出现概率p(x)的负对数来量度信息量I(x),即,I(x)=-1gp(x)。当p(x)=1、I(x)=0时,必然事件所带来的信息为零;随着p(x)的增加,I(x)减少,I(x)是p(x)单调递减函数;两个独立事件同时出现的信息量,等于两事件各自信息量之和。若一个随机试验有n个可能的结果X1,X2,…,Xn,各自出现的概率P1,P2,…,Pn,且Pi≥0,=1,试验后有一种且只有一种结果出现,其平均信息量,此即仙农公式,仙农将H(x)称为熵。对数底a决定了熵的单位,当a=2,e或10时,熵的单位分别为bit(比特)、nat(奈特)和Hart(哈特)。
CAS号:
性质:是美国工程师仙农(C. E. Shannon)在1948年首先提出的关于信息量定量化的测度。信息是指对事物认识“不肯定性”的减少,因此可用事件x出现概率p(x)的负对数来量度信息量I(x),即,I(x)=-1gp(x)。当p(x)=1、I(x)=0时,必然事件所带来的信息为零;随着p(x)的增加,I(x)减少,I(x)是p(x)单调递减函数;两个独立事件同时出现的信息量,等于两事件各自信息量之和。若一个随机试验有n个可能的结果X1,X2,…,Xn,各自出现的概率P1,P2,…,Pn,且Pi≥0,=1,试验后有一种且只有一种结果出现,其平均信息量,此即仙农公式,仙农将H(x)称为熵。对数底a决定了熵的单位,当a=2,e或10时,熵的单位分别为bit(比特)、nat(奈特)和Hart(哈特)。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条