1) activation function
激活函数
1.
This paper presents some improvements on the convergent criterion and activation function of the traditional BP neural network algorithm,and also the measures to prevent vibration,accelerate convergence and avoid falling into local minimum.
针对传统BP(back propagetion)算法存在的缺陷,分别对其收敛性标准、激活函数等进行改进,并采取措施防止振荡、加速收敛以及防止陷入局部极小。
2.
Perfect artificial neural network (ANN) learning should include the optimization of neural activation function types, and the tradition of optimizing the network weights only in ANN learning is not consistent with biology.
以典型的前馈网络设计为例,对网络学习中神经元激活函数类型优化的重要性做了进一步的探讨。
3.
This paper studies the influence of different activation function on the speed of convergence of BP algorithm,and reaches a conclusion:The combined activation function can improve the speed of convergence of BP algorithm.
研究了不同激活函数选取对BP 网络收敛速度的影响,得出了采用组合激活函数可改善BP网络的收敛性的结论。
2) activating function
激活函数
1.
A fast method and formula for computing activating function was provided.
给出一种激活函数快速计算方法和公式 ,推导出磁刺激作用下神经纤维的 Hodgkin- Hux-ley模型 ,并建立了神经兴奋与磁刺激仪电路参数之间的联系 。
2.
A modified cable equation and an activating function are obtained to describe the response of the neuraxon under the magnetic field based on the traditional model.
在传统电缆方程基础上,增加径向电场的作用,提出了一种能够描述磁场刺激神经轴突兴奋的改进的电缆方程和激活函数,仿真结果验证了其正确性。
3.
The method to avoid local minimum and the selections of learning method, learning step length, learning samples and activating function are introduced especially.
尤其对学习方法的选择、隐层数和隐层单元数的选择、学习步长的选择、避免局部最小的方法、学习样本的选择、激活函数的选择等都作了详细的介
3) neuronal activation function
神经元激活函数
1.
Optimizing neuronal activation function types based on GP in constructive FNN design;
前馈网络构造性设计中基于GP实现神经元激活函数类型优化
4) variant sigmoid function
可调激活函数
1.
To overcome the shortcomings of the standard BP network,this paper proposes four improved(methods) based on adding up inertia item,which are adaptive study rate method,variant sigmoid function method and adaptive study rate with variant sigmoid function method.
针对标准BP神经网络收敛速度慢,学习精度不高的缺点,在标准BP神经网络算法中附加动量项,并以附加动量项的BP网络算法为基础,提出动量—自适应速率法,动量—可调激活函数法以及动量—自适应速率—激活函数法四种改进算法。
5) combined activation function
组合激活函数
6) trapezoidal activation function(TAF)
梯形激活函数
补充资料:高斯函数模拟斯莱特函数
尽管斯莱特函数作为基函数在原子和分子的自洽场(SCF)计算中表现良好,但在较大分子的SCF计算中,多中心双电子积分计算极为复杂和耗时。使用高斯函数(GTO)则可使计算大大简化,但高斯函数远不如斯莱特函数(STO)更接近原子轨道的真实图象。为了兼具两者之优点,避两者之短,考虑到高斯函数是完备函数集合,可将STO向GTO展开:
式中X(ζS,A,nS,l,m)定义为在核A上,轨道指数为ζS,量子数为nS、l、m 的STO;g是GTO:
其变量与STO有相似的定义;Ngi是归一化常数:
rA是空间点相对于核A的距离;ci是组合系数;K是用以模拟STO的GTO个数(理论上,K→∞,但实践证明K只要取几个,便有很好的精确度)。
ci和ζ在固定K值下, 通过对原子或分子的 SCF能量计算加以优化。先优化出 ζS=1 时固定K值的ci和(i=1,2,...,K),然后利用标度关系式便可得出ζS的STO展开式中每一个GTO的轨道指数,而且,ci不依赖于ζS,因而ζS=1时的展开系数就是具有任意ζS的STO的展开系数。对不同展开长度下的展开系数和 GTO轨道指数已有表可查。
式中X(ζS,A,nS,l,m)定义为在核A上,轨道指数为ζS,量子数为nS、l、m 的STO;g是GTO:
其变量与STO有相似的定义;Ngi是归一化常数:
rA是空间点相对于核A的距离;ci是组合系数;K是用以模拟STO的GTO个数(理论上,K→∞,但实践证明K只要取几个,便有很好的精确度)。
ci和ζ在固定K值下, 通过对原子或分子的 SCF能量计算加以优化。先优化出 ζS=1 时固定K值的ci和(i=1,2,...,K),然后利用标度关系式便可得出ζS的STO展开式中每一个GTO的轨道指数,而且,ci不依赖于ζS,因而ζS=1时的展开系数就是具有任意ζS的STO的展开系数。对不同展开长度下的展开系数和 GTO轨道指数已有表可查。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条