郑雪辉
- 作品数:2 被引量:5H指数:1
- 供职机构:江南大学数字媒体学院更多>>
- 相关领域:自动化与计算机技术更多>>
- 逐层可加的急速学习机被引量:1
- 2016年
- 已有的急速学习机(Extreme Learning Machine)的学习精度受隐节点数目的影响很大。无论是已提出的单隐层急速学习机还是多隐层神经网络,都是先确定隐藏层数,再通过增加每一层的神经元个数来提高精度。但当训练集规模很大时,往往需要引入很多的隐节点,导致违逆矩阵计算复杂度大,从而不利于学习效率的提高。提出逐层可加的急速学习机MHL-ELM(Extreme Learning Machine with Incremental Hidden Layers),其思想是首先对当前隐藏层神经元(数目不大且不寻优,因而复杂度小)的权值进行随机赋值,用ELM思想求出逼近误差;若误差达不到要求,再增加一个隐含层。然后运用ELM的思想对当前隐含层优化。逐渐增加隐含层,直至满足误差精度为止。除此以外,MHL-ELM的算法复杂度为Σi=1MO(N_l^3)。实验使用10个UCI,keel真实数据集,通过与BP,OP-ELM等传统方法进行比较,表明MHL-ELM学习方法具有更好的泛化性,在学习精度和学习速度方面都有很大的提升。
- 郑雪辉王士同许小龙
- 基于迁移学习的径向基函数神经网络学习被引量:4
- 2016年
- 现实场景中存在很多小样本量数据集而且多有失真,传统神经网络在处理这类数据时泛化能力较差,不能达到预测数据或分类的目的。迁移学习可通过学习数据集A有用的知识对与其相关但不同正态分布的小样本数据集B进行辅助学习,因此提出了具有迁移学习能力的神经网络,以实现更好的分类或逼近效果。以基于ε-不敏感准则和结构风险的径向基神经网络(RBF)为基础构造了迁移径向基神经网络(T-RBF-NN)。通过加噪音数据集实验以及真实数据集实验验证加入迁移学习的神经网络在小样本情况下比传统神经网络具有更好的泛化性和鲁棒性。
- 郑雪辉王士同
- 关键词:信息缺失