说明:双击或选中下面任意单词,将显示该词的音标、读音、翻译等;选中中文或多个词,将显示翻译。
您的位置:首页 -> 词典 -> 联想记忆网络
1)  associative memory network
联想记忆网络
1.
An associative memory network with spatiotemporal chaos control is investigated in this paper.
本文提出了一种具有时空混沌控制的联想记忆网络
2)  auto-associative neural network
自联想记忆神经网络
1.
Nevertheless,the current novelty detection method-auto-associative neural network method may give faulty informations in detection,when the used training and testing data are non-normal distribution or polluted by different noise levels.
然而 ,目前采用的新奇检测方法—自联想记忆神经网络方法 ,当所用的测试数据具有不同噪声水平或为非正态分布时 ,可能会得出错误的结果。
3)  bi-directional associative memory neural networks
双向联想记忆神经网络
1.
Stability analysis of uncertain bi-directional associative memory neural networks with variable delays;
不确定双向联想记忆神经网络的稳定性分析
4)  fuzzy bi-directional associative memory
模糊双向联想记忆网络
1.
Efficient learning algorithm for Fuzzy bi-directional associative memory based on Lukasiewicz s t-Norm;
基于Lukasiewiczt-模的模糊双向联想记忆网络的有效学习算法
2.
A new fuzzy bi-directional associative memory network model is proposed based on fuzzy composition of Max and Einstain’s s-Norm(Max-Ses FBAM).
基于模糊取大运算和爱因斯坦s-模提出新的模糊双向联想记忆网络模型(Max-Ses FBAM),并为该网络提出了一种新的学习算法。
5)  bidirectional associate memory neural network
双向联想记忆神经网络
1.
Global attractivity and global exponential stability for delayed bidirectional associate memory neural networks;
含时滞的双向联想记忆神经网络的全局吸引性和全局指数稳定性
6)  fuzzy associative memory
模糊联想记忆网络
1.
Learning algorithm for parameterized fuzzy associative memory
参数化模糊联想记忆网络的学习算法
2.
Taking advantage of the concomitant implication operator of Tes,which is a t-norm and was presented by Einstein,a simple efficient learning algorithm is proposed for the fuzzy associative memory based on fuzzy composition of Max and Tes(Max-Tes FAM).
文章利用t-模的伴随蕴涵算子,为基于Max和Tes合成的模糊联想记忆网络Max-TesFAM提供了一种新的学习算法,此处Tes是由爱因斯坦提出的一种t-模算子。
补充资料:联想记忆


联想记忆
associative memory

  1 ianxiang]iyl联想记忆(~istive memo灯)一种记忆系统,在这种系统中,一个输人能特定地唤起所联想的响应。人脑的记忆就是以联想的方式工作的。联想记忆的作用可由图1表示,它执行一种由输人向量X联想映射为输出向量V的变换,即 V=M[X],X任R.,V任R功(1)┌─┐│M │└─┘X一〔xlx:…x.了V~〔。,。:…。.〕T 图1联想记忆框图算子M表示一般的非线性矩阵型算子。随记忆模型不同而有不同的形式。M的初值通常由给定的待存储的原型向量(样本)表达。M的值应满足如下条件:输人向量X后,输出是所存向量中与X最近的向量(或它应联想的向量)。计算M的算法称为记录或学习算法。而由一个包含部分输人信息的向量X通过式(l)进行的映射称为恢复或回忆。假定有P个如下的联想的存储向量对 x,~v、i=1,2,…,P(2)且v、护x,,则网络称为异联想记忆,若v*二x,,则称为自联想记忆。 与通常的计算机中按地址存储信息的方式不同,联想记忆是把信息分布存储在算子M(在神经网络中对应于连接权矩阵)中。可以直接由信息的内容去回忆它,因而是一种按内容存储方式。 按回忆方式不同可把联想记忆网络分为静态记忆和动态记忆网络。前者执行的是一种对输人的前向映射。动态网络的记忆过程是输人和输出的交互反馈作用。网络经演变收敛于一个平衡点(一般是网络的不动点吸引子),就是回忆的结果。由于动态网络有较好的容错性,所以是目前最常用的一种,常见的动态记忆网络是场叩neld神经网络模型(用于自联想记忆)和K仍ko的双向联想记忆模型(用于异联想记忆)。 从应用观点看,对联想记忆的主要要求一是希望它能存的样本多,即容量大,二是每个样本有较大的容错性,这样才能从不完整的或畸变了的样本恢复它的原型。增大网络规模对上述两个性能是有好处的,但这样做降低了资源利用率,因而通常用允许存储的样本数与网络中神经元总数的比值来表示容量。对给定的网络来说,提高容量与增强容错性往往是矛盾的,研究更好的学习算法和网络结构以达到较大容量并同时保证高的容错能力是很重要的课题。 联想记忆在模式识别、图象恢复、智能控制、优化计算以及光学信息处理等领域有很广泛的应用前景,因而在人工神经网络和人工智能研究中都占有很重要的地位。
  
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条