1) metropolis algorithm
Metropolis算法
1.
Combined the SW algorithm and Metropolis algorithm,a new method for generating Markov process is proposed,which can converged into Boltzmann distribution quickly,so reducing the computation time of superparamagnetic clustering.
结合SW算法和Metropolis算法给出了一种新的产生马尔科夫过程的方法,该过程能够快速收敛于Boltzmann分布,从而降低超顺磁聚类方法的计算量。
2) metropolis-hasting algorithm
Metropolis-Hasting算法
3) Metropolis-Hastings algorithm
Metropolis-Hastings算法
1.
This paper investigates one MCMC method known as the Metropolis-Hastings algorithm.
首先阐述Metropolis-Hastings算法实现的具体步骤,然后证明由此产生的Markov链满足细致平衡条件,从而以目标分布为不变分布。
2.
A multi-chain sampling method based on Metropolis-Hastings algorithm was used to improve the Markov Chain Monte Carlo(MCMC) method in order to prevent from trapped into the local optimal solutions that often occur to probability inversion by using current MCMC algorithm.
鉴于此,本文对基于Metropolis-Hastings算法的多链搜索的方法进行了改进,改进后的方法可以根据搜索结果实时调整链的个数,因而可以在搜索到尽可能多的解的同时节省了多链搜索的时间。
3.
The E-step is derived by Metropolis-Hastings algorithm to generate a sample for missing data,and the M-Step is done by Newton-Raphson to maximize the likelihood function.
其中,在期望步中利用Metropolis-Hastings算法产生一个缺失数据的样本,在最大化步中利用Newton-Raphson迭代使似然函数最大化。
4) Metropolis Hastings algorithm
Metropolis-Hastings算法m
5) Metropolis sampling algorithm
Metropolis采样算法
6) Metropolis-Hastings (M-H) algorithm
Metropolis-Hastings(M-H)算法
补充资料:BP算法
分子式:
CAS号:
性质:又称逆推学习算法,简称BP算法,是1986年鲁梅哈特(D. E. Rumelhart)和麦克莱朗德(J. L. McClelland)提出来的。用样本数据训练人工神经网络(一种模仿人脑的信息处理系统),它自动地将实际输出值和期望值进行比较,得到误差信号,再根据误差信号从后(输出层)向前(输入层)逐层反传,调节各神经层神经元之间的连接权重,直至误差减至满足要求为止。反向传播算法的主要特征是中间层能对输出层反传过来的误差进行学习。这种算法不能保证训练期间实现全局误差最小,但可以实现局部误差最小。BP算法在图像处理、语音处理、优化等领域得到应用。
CAS号:
性质:又称逆推学习算法,简称BP算法,是1986年鲁梅哈特(D. E. Rumelhart)和麦克莱朗德(J. L. McClelland)提出来的。用样本数据训练人工神经网络(一种模仿人脑的信息处理系统),它自动地将实际输出值和期望值进行比较,得到误差信号,再根据误差信号从后(输出层)向前(输入层)逐层反传,调节各神经层神经元之间的连接权重,直至误差减至满足要求为止。反向传播算法的主要特征是中间层能对输出层反传过来的误差进行学习。这种算法不能保证训练期间实现全局误差最小,但可以实现局部误差最小。BP算法在图像处理、语音处理、优化等领域得到应用。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条