说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> Fisher信息熵
1)  Fisher information entropy
Fisher信息熵
2)  Fisher information
Fisher信息
1.
Using Fisher information matrix to deal with parameter estimation for truncated samples from normal distribution;
用Fisher信息阵处理截断正态分布的参数估计
2.
The evaluation algorithms of Cramer-Rao inequality and Fisher information in parameter estimation were introduced.
给出了Cramer-Rao不等式和Fisher信息在参数估计理论中的评价算法。
3.
Based on the Fisher information,a study is made on the phenomena of stochastic resonance(SR) and suprathreshold stochastic resonance(SSR)in a maximizing network of threshold devices for three representative noises,leading to the conclusion that the Fisher information can be enhanced with the noise,i.
基于Fisher信息研究了3种典型噪声下极大阈值网络中的随机谐振和阈上随机谐振现象。
3)  Fisher information matrix
Fisher信息阵
1.
A simple and convenient way is provided to compute maximum likelihood estimates of the parameters in Markov chain and an explicit formula for Fisher information matrix is obtained.
给出马尔科夫链的Fisher信息阵与相应的一维、二维分布Fisher信息阵之间的关系,为计算马尔科夫链参数的最大似然估计值提供了一种简单方便的算法。
4)  fisher information
Fisher信息量
1.
After expressing the Fisher information in left truncated data in terms of the distributions of complete data, we study the relations of Fisher information between the left truncated and the complete data.
本文研究左截断数据(U,V)含θ的Fisher信息量,并给出了基于分布和失效率表示的两个表达式。
2.
By the analysis and simulation of the model,the author found the trend of which the Fisher information slowly decreases and then fast increases with the effective phase width,and the larger neuronal density,the more Fisher information can be seen.
通过对模型的分析与数值模拟结果表明Fisher信息量随着有效相宽呈缓慢减小后迅速增加的趋势,并随着神经元密度的增大而增大。
5)  Fisher information number
Fisher信息数
6)  Quasi Fisher information
拟Fisher信息
补充资料:信息熵
信息熵
information entropy

   信息量的测度。根据人们的实践经验,一个事件给予人们的信息量多少,与这一事件发生的概率(可能性)大小有关。一个小概率事件的发生,给予人们的信息量就很多。相反,一个大概率事件的出现,给人们的信息量就很少。因此,用I(A)=-logp(A)〔p(A)表示事件A发生的概率〕来度量事件A给出的信息量,称为事件A的自信息量。若一次试验有m个可能结果(事件),或一个信源可能产生m个消息(事件),它们出现的概率分别为p1p2,……,pm,则用H=-!!!X1131_1piogp来度量一次试验或一个消息所给出的平均信息量。H称为信息熵,由于H的表达式与熵的表达式差一个负号,故又称为负熵。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条