邹斌
- 作品数:14 被引量:14H指数:2
- 供职机构:湖北大学更多>>
- 发文基金:国家自然科学基金湖北省自然科学基金中国博士后科学基金更多>>
- 相关领域:自动化与计算机技术理学文化科学更多>>
- RKHS中正则化学习算法的推广误差界被引量:2
- 2005年
- 研究了再生核希尔伯特空间(RKHS)中的正则化学习算法,证明了其推广误差可分解为两个部分:逼近误差和估计误差,并应用VC维和算法稳定性给出了相应界,最后联立这两个结果证明了正则化学习算法具有好的推广性.
- 董雪梅邹斌李落清
- 关键词:误差界再生核希尔伯特空间正则化学习算法VC维
- 大学基础数学课堂中问题驱动式教学方法探究
- 2023年
- 在大学基础数学课程教学中,课程本身的枯燥及较大的难度是导致学生学习效率不高的主要原因。针对这一问题提出了问题驱动式教学方法,对湖北大学数学与统计学院学生进行了调查,发现采用该方法后学生的预习时间增加且复习时间减少,在课堂上有效地实现师生互动的同时学生能更好地理解课堂重难点。然后,从学生的角度分析其对于大学基础数学课堂中问题驱动式教学的期望,并以此为基础对教师的问题驱动式教学方法提出建议。最后,将应用该方法的课堂的学生成绩与未应用该方法的课堂的学生成绩进行对比,以此看出该方法对于提升学生学习效率有显著效果。
- 邹斌潘晏枫姜峰付应雄徐婕
- 关键词:问题驱动式教学教学方法
- 基于β-混合序列的学习机器的相对一致收敛速率的界(英文)被引量:1
- 2008年
- 推广性能是机器学习理论研究的主要目的之一。为了研究相依序列下采用ERM算法的学习机器的推广性能,本文基于β-混合序列建立了采用ERM算法的学习机器的经验风险到它的期望风险相对一致收敛速率的界。这个界不仅把基于独立序列下已有的结果推广到β-混合相依序列的情况,而且对β-混合相依序列现有的一些结论进行了改进。得到了β-混合相依序列下,采用ERM算法的学习机器的推广性能的界。
- 邹斌李落清万成高
- 基于β-混合输入的经验风险最小化回归的学习速率(英文)被引量:2
- 2011年
- 研究最小平方损失下的经验风险最小化算法是统计学习理论中非常重要研究内容之一.而以往研究经验风险最小化回归学习速率的几乎所有工作都是基于独立同分布输入假设的.然而,独立的输入样本是一个非常强的条件.因此,在本文,我们超出了独立输入样本这个经典框架来研究了基于β混合输入样本的经验风险最小化回归算法学习速率的界.我们证明了基于β混合输入样本的经验风险最小化回归算法是一致的,指出了本文所建立的结果同样适合输入样本是马氏链、隐马氏链的情形.
- 邹斌徐宗本张海
- 关键词:学习速率
- 联合算法稳定下的排一推广误差界
- 2005年
- 在机器学习算法的联合稳定性条件下,利用广义McDiarmid不等式获得了排一推广误差的界。讨论了机器学习的推广能力,和类似的结果进行了比较。
- 董雪梅邹斌李落清
- 基于α混合序列的在线算法的推广性能(英文)
- 2017年
- 近年来,在线算法的理论研究得到相应的重视.以前在线算法的推广界都是基于独立同分布的样本建立的.在本文中,我们跳过这个框架来研究基于α混合序列的在线算法的推广界.我们用全变差来定义α混合序列,而且在分析时只要求鞅收敛参数.结果是:"遗憾"可以度量在线算法的性能.与β混合序列比较,我们得到更紧的推广误差估计.
- 胡小云邹斌龚铁梁杨艳
- M进制多小波尺度函数的逼近阶被引量:2
- 2002年
- 在小波理论中,精度或逼近阶是刻划尺度函数最重要的特性之一。就M进制多小波的尺度函数在时域里逼近阶条件进行研究,并给出了尺度函数具有逼近阶m的充分必要条件。
- 尤新革邹斌
- 关键词:尺度函数逼近阶小波理论FOURIER变换函数逼近
- 基于算法稳定的分类机器学习泛化能力的研究被引量:4
- 2004年
- 泛化能力是机器学习理论研究的主要目的.本文通过对算法稳定框架下分类机器学习相对误差的研究,得到了重叠稳定条件下分类机器学习不依赖于分布的相对误差的界,再通过这个界讨论了重叠稳定条件下分类机器学习的泛化能力,得出了重叠稳定条件下分类机器学习是具有较好泛化能力的结论.
- 邹斌董雪梅付丽华
- 关键词:泛化能力
- 四种学习算法稳定之间的关系被引量:2
- 2005年
- 为研究机器学习的推广误差 ,提出了变一误差估计条件下一种新的学习算法稳定 逐点假设稳定 ,并讨论了逐点假设稳定、CV稳定、重叠稳定以及弱假设稳定四种学习算法稳定之间的关系 ,得出了逐点假设稳定是这四种学习算法稳定中最弱的学习算法稳定的结论。
- 邹斌董雪梅李落清
- 关键词:学习算法CV
- 基于留一估计子的学习机器的推广能力
- 学习机器的推广能力是机器学习理论研究的重要方面.在逐点假设稳定条件下,应用马尔可夫不等式导出了分类学习机器推广误差的界.把这个界与已有的界进行了比较,并得出了逐点假设稳定条件下分类学习机器具有好的推广能力的结论.
- 邹斌徐婕李落清
- 文献传递