说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 归一化互信息熵
1)  normalized mutual information entropy
归一化互信息熵
2)  normalized mutual information
归一化互信息
1.
Improved Medical Image Registration Algorithm Based on Maximization of Normalized Mutual Information;
改进的基于最大归一化互信息的医学图像配准算法
2.
Further,studies the method of normalized mutual information.
在此基础上对比研究了归一化互信息配准法。
3.
In rigid registration algorithms based on normalized mutual information, the similarity metric function gets trapped into local minimums easily during searching process, so an improved.
基于归一化互信息的刚性医学图像配准中,相似性测度函数容易在搜索过程中陷入局部极值而得到错误的配准结果,本文对PSO搜索算法进行了改进,引入了非线性权值递减策略来增强算法的搜索能力,并通过聚集度分析和变异策略来克服局部极值。
3)  normal mutual information (NMI)
归一化互信息(NMI)
4)  normalized mutual information vector
归一化互信息向量
1.
Multi-image registration based on entropy of normalized mutual information vector
基于归一化互信息向量熵的多幅图像配准方法
5)  mutual information of entropy
熵互信息
1.
this paper using Mutual information of entropy deal with gene expression,reconstruct genetic regulatory boolean networks.
利用熵互信息理论对基因表达进行处理,构建基因调控布尔网络。
6)  Mutual entropy
互信息熵
补充资料:信息熵(informationentropy)
信息熵(informationentropy)

是信息论中信息量的统计表述。香农(Shannon)定义信息量为:`I=-Ksum_ip_ilnp_i`,表示信息所消除的不确定性(系统有序程度)的量度,K为待定常数,pi为事件出现的概率,$sump_i=1$。对于N个等概率事件,pi=1/N,系统的信息量为I=-Klnpi=KlnN。平衡态时系统热力学函数熵的最大值为$S=-ksum_iW_ilnW_i=kln\Omega$,k为玻尔兹曼常数,Wi=1/Ω为系统各状态的概率,$sum_iW_i=1$,Ω为系统状态数,熵是无序程度的量度。信息量I与熵S具有相同的统计意义。设K为玻尔兹曼常数k,则信息量I可称信息熵,为$H=-ksum_ip_ilnp_i$,信息给系统带来负熵。如取K=1,对数底取2,熵的单位为比特(bit);取底为e,则称尼特。信息熵是生命系统(作为非平衡系统)在形成有序结构——耗散结构时,所接受的负熵的一部分。

说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条