说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 激励函数
1)  activation function
激励函数
1.
Studies on the activation functions of BP algorithm;
BP网络激励函数的研究
2.
The paper proposes a new kind of NARX network, which has trainable activation functions in addition to only trainable weights in the conventional NARX networks.
提出了一种隐层神经元激励函数可调的具有外部输入的非线性回归(NARX)神经网络,它在进行权值调整的同时,还对各隐层神经元激励函数的参数进行自适应调节;并推导出激励函数参数的学习算法,从而使NARX神经网络更符合生物神经网络。
3.
Previous learning algorithms, to our best knowledge, failed to take advantage of all three factors (weights, activation functions, topological structure) that influence the efficiency of such algorithms.
该算法综合考虑了影响神经网络性能的3个主要因素:权值、激励函数和拓扑结构。
2)  stimulation function
激励函数
1.
The theory of fuzzy optimum selection is combined with the neural network theory, and the topologic structure of the network is determined, including the number of implicit layers, node number of implicit layers, and the reasonable mode of the node stimulation function.
将模糊优选理论与神经网络理论相结合,确定网络拓扑结构:隐含层数、隐含层节点数与节点激励函数的合理模式。
2.
In order to speed the convergence of BP algorithm, this paper puts forward a new stimulation function,which has an explicit physical meaning and is able to reflect the optimization essence of human beings brains.
为加速BP算法的收敛,提出了一种物理意义明确、体现人脑优选本质的新的激励函数,通过动态调整此激励函数的参数并结合已有的一些BP改进算法,用之进行股票价格的预测,得到了满意的结果。
3.
Combined with the fuzzy optimum selection theory proposed by the author with the neural network theory, this paper provides a rational pattern of determining the topologic structure of network: number of hidden layers, number of nodes in hidden layer and stimulation function of nodes.
把笔者建立的模糊优选理论与神经网络理论结合起来,提出确定网络拓扑结构:隐含层数、隐含层节点数与节点激励函数的合理模式。
3)  excitation function
激励函数
1.
Minimization technique of J and K excitation functions based on behaviors of flip-flop;
基于触发行为的J、K激励函数的最小化技术
2.
By this method, secondary state equations based on the state table are compared with the standard secondary state equations of the flip-flop used in the circuits, and then the excitation functions of flip-flop can be directly acquired.
该方法从状态表中获得次态方程 ,然后将所获得的次态方程与所用触发器的标准次态方程联立比较而直接得到触发器的激励函数
4)  active function
激励函数
1.
In this paper, an algorithm in which active function is improved is proposed through analyzing the conventional BP algorithm, and different learning rates are used to increase the learning speed in each layer.
通过对传统BP算法的分析,提出了一种改进激励函数的学习方法,并且在神经网络的每一层采用不同的学习速率,以提高训练速度;采用所提出的改进BP算法,训练多层前向神经网络,建立机械手逆运动学模型,仿真结果表明了该算法的有效性;与传统BP算法相比,大大提高了机械手逆运动学的精度。
2.
The circuit of active function is introduced.
介绍其中的一种Sigmoid激励函数电路实现,该电路以差分器件为主要部分,通过调整相应的参数可以调节输入电压的范围和改变激励函数的增益,并在EDA环境下仿真验证了电路的有效性。
5)  Lipschitz activation function
Lipschitz激励函数
6)  colour stimulus function
色激励函数
补充资料:高斯函数模拟斯莱特函数
      尽管斯莱特函数作为基函数在原子和分子的自洽场(SCF)计算中表现良好,但在较大分子的SCF计算中,多中心双电子积分计算极为复杂和耗时。使用高斯函数(GTO)则可使计算大大简化,但高斯函数远不如斯莱特函数(STO)更接近原子轨道的真实图象。为了兼具两者之优点,避两者之短,考虑到高斯函数是完备函数集合,可将STO向GTO展开:
  
  
  式中X(ζS,A,nS,l,m)定义为在核A上,轨道指数为ζS,量子数为nS、l、m 的STO;g是GTO:
  
  
  其变量与STO有相似的定义;Ngi是归一化常数:
  
  
  rA是空间点相对于核A的距离;ci是组合系数;K是用以模拟STO的GTO个数(理论上,K→∞,但实践证明K只要取几个,便有很好的精确度)。
  
  ci和ζ在固定K值下, 通过对原子或分子的 SCF能量计算加以优化。先优化出 ζS=1 时固定K值的ci和(i=1,2,...,K),然后利用标度关系式便可得出ζS的STO展开式中每一个GTO的轨道指数,而且,ci不依赖于ζS,因而ζS=1时的展开系数就是具有任意ζS的STO的展开系数。对不同展开长度下的展开系数和 GTO轨道指数已有表可查。
  

说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条