您的位置: 专家智库 > >

邹斌

作品数:14 被引量:14H指数:2
供职机构:湖北大学更多>>
发文基金:国家自然科学基金湖北省自然科学基金中国博士后科学基金更多>>
相关领域:自动化与计算机技术理学文化科学更多>>

文献类型

  • 13篇期刊文章
  • 1篇会议论文

领域

  • 7篇自动化与计算...
  • 6篇理学
  • 1篇文化科学

主题

  • 5篇英文
  • 2篇学习算法
  • 1篇大学基础
  • 1篇独立同分布
  • 1篇学习速率
  • 1篇再生核
  • 1篇正则
  • 1篇正则化
  • 1篇支持向量
  • 1篇支持向量机
  • 1篇支持向量机回...
  • 1篇收敛速率
  • 1篇数学
  • 1篇数学课
  • 1篇数学课堂
  • 1篇同分布
  • 1篇驱动式
  • 1篇驱动式教学
  • 1篇问题驱动式教...
  • 1篇误差界

机构

  • 14篇湖北大学
  • 3篇西安交通大学
  • 1篇华中科技大学
  • 1篇北京航空航天...
  • 1篇西北大学
  • 1篇澳门大学
  • 1篇武汉晴川学院

作者

  • 14篇邹斌
  • 8篇李落清
  • 5篇董雪梅
  • 2篇万成高
  • 2篇徐婕
  • 1篇徐宗本
  • 1篇姜峰
  • 1篇尤新革
  • 1篇张海
  • 1篇付丽华
  • 1篇付应雄
  • 1篇唐远炎
  • 1篇胡小云

传媒

  • 4篇湖北大学学报...
  • 3篇应用概率统计
  • 3篇工程数学学报
  • 1篇模式识别与人...
  • 1篇计算机应用与...
  • 1篇教育教学论坛
  • 1篇2005年中...

年份

  • 1篇2023
  • 1篇2017
  • 1篇2014
  • 1篇2011
  • 1篇2008
  • 1篇2007
  • 5篇2005
  • 2篇2004
  • 1篇2002
14 条 记 录,以下是 1-10
排序方式:
RKHS中正则化学习算法的推广误差界被引量:2
2005年
研究了再生核希尔伯特空间(RKHS)中的正则化学习算法,证明了其推广误差可分解为两个部分:逼近误差和估计误差,并应用VC维和算法稳定性给出了相应界,最后联立这两个结果证明了正则化学习算法具有好的推广性.
董雪梅邹斌李落清
关键词:误差界再生核希尔伯特空间正则化学习算法VC维
大学基础数学课堂中问题驱动式教学方法探究
2023年
在大学基础数学课程教学中,课程本身的枯燥及较大的难度是导致学生学习效率不高的主要原因。针对这一问题提出了问题驱动式教学方法,对湖北大学数学与统计学院学生进行了调查,发现采用该方法后学生的预习时间增加且复习时间减少,在课堂上有效地实现师生互动的同时学生能更好地理解课堂重难点。然后,从学生的角度分析其对于大学基础数学课堂中问题驱动式教学的期望,并以此为基础对教师的问题驱动式教学方法提出建议。最后,将应用该方法的课堂的学生成绩与未应用该方法的课堂的学生成绩进行对比,以此看出该方法对于提升学生学习效率有显著效果。
邹斌潘晏枫姜峰付应雄徐婕
关键词:问题驱动式教学教学方法
基于β-混合序列的学习机器的相对一致收敛速率的界(英文)被引量:1
2008年
推广性能是机器学习理论研究的主要目的之一。为了研究相依序列下采用ERM算法的学习机器的推广性能,本文基于β-混合序列建立了采用ERM算法的学习机器的经验风险到它的期望风险相对一致收敛速率的界。这个界不仅把基于独立序列下已有的结果推广到β-混合相依序列的情况,而且对β-混合相依序列现有的一些结论进行了改进。得到了β-混合相依序列下,采用ERM算法的学习机器的推广性能的界。
邹斌李落清万成高
基于β-混合输入的经验风险最小化回归的学习速率(英文)被引量:2
2011年
研究最小平方损失下的经验风险最小化算法是统计学习理论中非常重要研究内容之一.而以往研究经验风险最小化回归学习速率的几乎所有工作都是基于独立同分布输入假设的.然而,独立的输入样本是一个非常强的条件.因此,在本文,我们超出了独立输入样本这个经典框架来研究了基于β混合输入样本的经验风险最小化回归算法学习速率的界.我们证明了基于β混合输入样本的经验风险最小化回归算法是一致的,指出了本文所建立的结果同样适合输入样本是马氏链、隐马氏链的情形.
邹斌徐宗本张海
关键词:学习速率
联合算法稳定下的排一推广误差界
2005年
在机器学习算法的联合稳定性条件下,利用广义McDiarmid不等式获得了排一推广误差的界。讨论了机器学习的推广能力,和类似的结果进行了比较。
董雪梅邹斌李落清
基于α混合序列的在线算法的推广性能(英文)
2017年
近年来,在线算法的理论研究得到相应的重视.以前在线算法的推广界都是基于独立同分布的样本建立的.在本文中,我们跳过这个框架来研究基于α混合序列的在线算法的推广界.我们用全变差来定义α混合序列,而且在分析时只要求鞅收敛参数.结果是:"遗憾"可以度量在线算法的性能.与β混合序列比较,我们得到更紧的推广误差估计.
胡小云邹斌龚铁梁杨艳
M进制多小波尺度函数的逼近阶被引量:2
2002年
在小波理论中,精度或逼近阶是刻划尺度函数最重要的特性之一。就M进制多小波的尺度函数在时域里逼近阶条件进行研究,并给出了尺度函数具有逼近阶m的充分必要条件。
尤新革邹斌
关键词:尺度函数逼近阶小波理论FOURIER变换函数逼近
基于算法稳定的分类机器学习泛化能力的研究被引量:4
2004年
泛化能力是机器学习理论研究的主要目的.本文通过对算法稳定框架下分类机器学习相对误差的研究,得到了重叠稳定条件下分类机器学习不依赖于分布的相对误差的界,再通过这个界讨论了重叠稳定条件下分类机器学习的泛化能力,得出了重叠稳定条件下分类机器学习是具有较好泛化能力的结论.
邹斌董雪梅付丽华
关键词:泛化能力
四种学习算法稳定之间的关系被引量:2
2005年
为研究机器学习的推广误差 ,提出了变一误差估计条件下一种新的学习算法稳定 逐点假设稳定 ,并讨论了逐点假设稳定、CV稳定、重叠稳定以及弱假设稳定四种学习算法稳定之间的关系 ,得出了逐点假设稳定是这四种学习算法稳定中最弱的学习算法稳定的结论。
邹斌董雪梅李落清
关键词:学习算法CV
基于留一估计子的学习机器的推广能力
学习机器的推广能力是机器学习理论研究的重要方面.在逐点假设稳定条件下,应用马尔可夫不等式导出了分类学习机器推广误差的界.把这个界与已有的界进行了比较,并得出了逐点假设稳定条件下分类学习机器具有好的推广能力的结论.
邹斌徐婕李落清
文献传递
共2页<12>
聚类工具0