1) Autotuning sigmoidal function
可调Sigmoidal函数
2) sigmoidal function
Sigmoidal函数
1.
The degree of approximation to a function in C() by single layer FANN with sigmoidal function is investigated by the constructive approach.
利用构造性的方法研究了以Sigmoidal函数为激活函数的单隐层前向人工神经网络对C()中函数的偏差估计。
3) Function with compound factor
可调和因子函数
4) variant sigmoid function
可调激活函数
1.
To overcome the shortcomings of the standard BP network,this paper proposes four improved(methods) based on adding up inertia item,which are adaptive study rate method,variant sigmoid function method and adaptive study rate with variant sigmoid function method.
针对标准BP神经网络收敛速度慢,学习精度不高的缺点,在标准BP神经网络算法中附加动量项,并以附加动量项的BP网络算法为基础,提出动量—自适应速率法,动量—可调激活函数法以及动量—自适应速率—激活函数法四种改进算法。
5) Trainable Activation Function
激活函数可调
1.
Trainable Activation Function RBF Neural Networks Model
激活函数可调的RBF神经网络模型
6) base function with adjusted parameters
参数可调的基函数
补充资料:高斯函数模拟斯莱特函数
尽管斯莱特函数作为基函数在原子和分子的自洽场(SCF)计算中表现良好,但在较大分子的SCF计算中,多中心双电子积分计算极为复杂和耗时。使用高斯函数(GTO)则可使计算大大简化,但高斯函数远不如斯莱特函数(STO)更接近原子轨道的真实图象。为了兼具两者之优点,避两者之短,考虑到高斯函数是完备函数集合,可将STO向GTO展开:
式中X(ζS,A,nS,l,m)定义为在核A上,轨道指数为ζS,量子数为nS、l、m 的STO;g是GTO:
其变量与STO有相似的定义;Ngi是归一化常数:
rA是空间点相对于核A的距离;ci是组合系数;K是用以模拟STO的GTO个数(理论上,K→∞,但实践证明K只要取几个,便有很好的精确度)。
ci和ζ在固定K值下, 通过对原子或分子的 SCF能量计算加以优化。先优化出 ζS=1 时固定K值的ci和(i=1,2,...,K),然后利用标度关系式便可得出ζS的STO展开式中每一个GTO的轨道指数,而且,ci不依赖于ζS,因而ζS=1时的展开系数就是具有任意ζS的STO的展开系数。对不同展开长度下的展开系数和 GTO轨道指数已有表可查。
式中X(ζS,A,nS,l,m)定义为在核A上,轨道指数为ζS,量子数为nS、l、m 的STO;g是GTO:
其变量与STO有相似的定义;Ngi是归一化常数:
rA是空间点相对于核A的距离;ci是组合系数;K是用以模拟STO的GTO个数(理论上,K→∞,但实践证明K只要取几个,便有很好的精确度)。
ci和ζ在固定K值下, 通过对原子或分子的 SCF能量计算加以优化。先优化出 ζS=1 时固定K值的ci和(i=1,2,...,K),然后利用标度关系式便可得出ζS的STO展开式中每一个GTO的轨道指数,而且,ci不依赖于ζS,因而ζS=1时的展开系数就是具有任意ζS的STO的展开系数。对不同展开长度下的展开系数和 GTO轨道指数已有表可查。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条