您的位置: 专家智库 > >

梁学斌

作品数:20 被引量:104H指数:6
供职机构:复旦大学信息科学与工程学院计算机科学系更多>>
发文基金:国家攀登计划国家自然科学基金国家高技术研究发展计划更多>>
相关领域:自动化与计算机技术理学生物学更多>>

文献类型

  • 18篇期刊文章
  • 1篇学位论文
  • 1篇科技成果

领域

  • 19篇自动化与计算...
  • 3篇理学
  • 1篇生物学

主题

  • 14篇神经网
  • 14篇神经网络
  • 6篇联想记忆
  • 6篇记忆
  • 5篇联想
  • 4篇网络
  • 4篇吸引域
  • 4篇HOPFIE...
  • 4篇HOPFIE...
  • 3篇学习算法
  • 3篇指数收敛速度
  • 3篇收敛速度
  • 2篇全局指数稳定
  • 2篇全局指数稳定...
  • 2篇人工智能
  • 2篇记忆模式
  • 2篇HOPFIE...
  • 1篇有效学习算法
  • 1篇神经网络模型
  • 1篇数据分割

机构

  • 19篇复旦大学
  • 1篇安徽大学

作者

  • 20篇梁学斌
  • 15篇吴立德
  • 2篇刘秀虹
  • 1篇薛向阳
  • 1篇陈维军
  • 1篇朱兴全
  • 1篇黄萱菁
  • 1篇鲁翔
  • 1篇郭以昆
  • 1篇范建平

传媒

  • 4篇电子学报
  • 2篇自动化学报
  • 2篇计算机学报
  • 2篇复旦学报(自...
  • 1篇黑龙江大学自...
  • 1篇科学通报
  • 1篇安徽大学学报...
  • 1篇模式识别与人...
  • 1篇通信学报
  • 1篇中国科学(A...
  • 1篇国际学术动态
  • 1篇电子科学学刊

年份

  • 1篇2002
  • 2篇1998
  • 1篇1997
  • 9篇1996
  • 5篇1995
  • 1篇1994
  • 1篇1993
20 条 记 录,以下是 1-10
排序方式:
基于模式分量最优稳定性准则的联想记忆学习算法被引量:1
1996年
提出了设计联想记忆神经网络的模式分量最优稳定性准则,即使得每个模式分量对于模式畸变都具有最大的联想容错性,基于此,发展了一个约束感知器优化学习算法。它具有两个特点:(l)可以全部存储任意给定的训练模式集;(2)每个模式分量都具有最大的联想容错性,实验结果表明,所提出的优化学习算法比现有算法具有更强的存储联想能力。
梁学斌吴立德
关键词:联想记忆学习算法神经网络
综合联想记忆神经网络的外积取等准则被引量:8
1995年
本文提出了一个新的联想记忆设计准则,即外积取等准则,它具有外积和准则的所有优点。由外积取等准则设计出的联想记忆网络能够存储任意给定的训练模式,即对于训练模式的数目和它们之间相关性的强弱没有限制。外积取等准则可用来定量地评价记忆模式向量各分量对于记忆模式分类或识别的重要性。由外积取等准则设计出的网络的连接权值只取1、0或-1,因而网络易于光学实现。计算机实验结果充分说明了外积取等准则的有效性。
梁学斌吴立德
关键词:联想记忆神经网络
关于Hopfield型神经网络的全局指数稳定性被引量:12
1996年
具有全局指数稳定性的Hopfield型连续神经网络对于实时求解各种最优化问题以及特殊的A/D转换器设计问题非常重要。在这个意义下,要求神经网络具有唯一的平衡点,且它是全局指数稳定的。 考虑如下Hopfield型连续动态反馈神经网络模型: C_i((du_i)/dt)=Sum from i=1 to n(Ti_JVi)-u_i/R_i+I_i,v_i=g_i(u_i),i=1,2,…,n, (1) 其中C_i>0,R_i>0和I_i分别称为第i个神经元的电容常数、电阻常数和网络外部输入。这里,不假定T=(T_(ij))_(n×n)对称和所有g_i(·)都相同。
梁学斌吴立德
关键词:神经网络全局指数稳定性HOPFIELD网络
连续反馈联想记忆的吸引域和指数收敛速度的估计及其应用被引量:12
1996年
估计了连续反馈联想记忆模式的吸引域及其中每一点趋向记忆模式的指数收敛速度。这些结果可用于连续反馈联想记忆网络的容错性能评价以及综合过程。
梁学斌吴立德
关键词:神经网络吸引域指数收敛速度
用二维点对应数据分割和估计多刚体运动被引量:1
1998年
已知含有多个三维刚体的场景,在运动前后的二维点对应数据集合,其中可以包含高斯噪声和出格点数据,发展了初始部分匹配的生成-生长技术并运用刚性约束.将上述二维点对应数据集合,分割成多个分别对应于不同刚体运动的二维点对应数据子集,并能分离出所有出格点数据.再利用单刚体运动估计算法就可估计出各个刚体运动参数.实验结果表明了算法的有效性.
梁学斌吴立德俞俊
关键词:刚体运动数据分割参数估计
可化为对称情形的具有非对称权阵的连续Hopfield型神经网络被引量:1
1994年
若非线性连续Hopfield型神经网络的非对称权阵能够分解为正定对角阵、对称阵与另一正定对角阵的乘积,则该非对称网络经过一个相似变换可化为具有等价的稳定性质且权阵为上述对称阵的神经网络.由此推出,该类非对称神经网络具有全局稳定的吸引子,且为它的非空的平衡点集.另得到了保证该类非对称神经网络具有全局渐近稳定性的一个充分条件.
梁学斌刘秀虹
关键词:HOPFIELD型神经网络
Hopfield连续联想记忆的吸引域和指数收敛速度的估计及其应用被引量:12
1996年
本文得到了Hopfield连续联想记忆各记忆模式的吸引域及其中每一点趋向记忆模式的指数收敛速度的估计结果,它们可用来评价Hopfield连续反馈联想记忆的容错能力,且可用于综合更为实用的连续联想记忆神经网络。
梁学斌吴立德
关键词:神经网络吸引域指数收敛速度
关于两投影运动估计中E矩阵的刚性分解性质
1995年
利用2D点对应由两透视投影恢复刚体3D运动和结构的8点线性算法中的本质参数矩阵E可分解为一个反对称矩阵S与另一个旋转阵R的乘积,称此形式的分解为刚性分解.Huang,T.S.和Faugeras,O.D.得出了3×3矩阵可作刚性分解的一个充要条件.本文证明了3×3矩阵的刚性分解具有对偶性质,即若E=SR≠0,S=(Sij)3×3,则E有且仅有一个对偶的刚性分解E=(-S)R’,其中和ri’(i=1,2,3)分别表示R和R’的三个列向量,并给出计算3×3矩阵的两个对偶刚性分解的简单公式;得到了N×N(N≥2)矩阵可作刚性分解的充要条件,并证明矩阵刚性分解的对偶性是N=2或3时的特有性质.最后,给出本文结果在运动分析中的应用.
梁学斌吴立德
关键词:机器视觉矩阵
二进Hopfield型神经网络的记忆容量被引量:4
1996年
本文证明了具有N个神经元的二进Hopfield型神经网络可存储的记忆模式的最大数目为2N.对于任意K(1≤K≤2N)个N维二进值向量,给出了它们成为具有N个神经元的二进Hopfield型神经网络稳定态的充要条件.文中指出了一个二进Hopfield型神经网络有可能没有任何稳定态,这是与连续Hopfield型神经网络的一个重要区别.最后。
梁学斌吴立德
关键词:神经网络记忆模式
非线性动态反馈人工神经网络的分析与综合
梁学斌
关键词:人工神经网络
共2页<12>
聚类工具0