您的位置: 专家智库 > >

杨寿渊

作品数:5 被引量:16H指数:3
供职机构:江西财经大学信息管理学院更多>>
发文基金:国家自然科学基金江西省教育厅科学技术研究项目教育部科学技术研究重点项目更多>>
相关领域:自动化与计算机技术电子电信更多>>

文献类型

  • 5篇中文期刊文章

领域

  • 4篇自动化与计算...
  • 1篇电子电信

主题

  • 3篇图像
  • 2篇视频
  • 2篇小波
  • 1篇多聚焦图像
  • 1篇多聚焦图像融...
  • 1篇多小波
  • 1篇多小波变换
  • 1篇血流
  • 1篇血流图
  • 1篇人脸
  • 1篇人脸识别
  • 1篇视频烟雾检测
  • 1篇提升小波
  • 1篇图像融合
  • 1篇图像压缩
  • 1篇图像组
  • 1篇切换
  • 1篇自适
  • 1篇自适应
  • 1篇网络

机构

  • 5篇江西财经大学
  • 1篇上海师范大学
  • 1篇三峡大学
  • 1篇江西科技师范...

作者

  • 5篇杨寿渊
  • 4篇方志军
  • 2篇伍世虔
  • 1篇卢宇
  • 1篇张相芬
  • 1篇袁非牛
  • 1篇谢志华
  • 1篇李润午
  • 1篇杨勇
  • 1篇韦礼珍
  • 1篇杨巨成
  • 1篇雷帮军
  • 1篇黄淑英
  • 1篇罗桂华
  • 1篇童松
  • 1篇万征

传媒

  • 2篇中国图象图形...
  • 1篇小型微型计算...
  • 1篇计算机工程与...
  • 1篇图学学报

年份

  • 1篇2019
  • 1篇2014
  • 1篇2012
  • 1篇2009
  • 1篇2007
5 条 记 录,以下是 1-5
排序方式:
一种NSCT域多聚焦图像融合新方法被引量:2
2014年
针对多聚焦图像融合存在的问题,提出一种基于非下采样Contourlet变换(NSCT)的多聚焦图像融合新方法。首先,采用NSCT对多聚焦图像进行分解;然后,对低频系数采用基于改进拉普拉斯能量和(SML)的视觉特征对比度进行融合,对高频系数采用基于二维Log-Gabor能量进行融合;最后,对得到的融合系数进行重构得到融合图像。实验结果表明,无论是运用视觉的主观评价,还是基于互信息、边缘信息保留值等客观评价标准,该文所提方法都优于传统的离散小波变换、平移不变离散小波变换、NSCT等融合方法。
杨勇童松黄淑英方志军杨寿渊
关键词:多聚焦图像融合非下采样CONTOURLET变换
基于自适应GOP的三维提升小波视频编码技术
2012年
在三维提升视频编码框架中,视频运动场景切换时相邻视频帧之间的时间相关性将显著减弱,使得解码视频图像在场景切换处质量急剧下降。针对这一问题,提出了一种新的基于视频亮度分量的场景切换检测方法,并根据场景切换自适应分配图像组(group of picture GOP)大小。实验结果表明,该自适应分配GOP策略有效提高了三维提升小波视频图像的编解码质量,降低了场景切换对视频编码的影响。
方志军罗桂华伍世虔杨寿渊杨巨成
关键词:自适应图像组提升小波视频场景切换
分块PCA加权与FLD结合的血流图红外人脸识别方法被引量:5
2009年
传统红外人脸识别方法都是基于全局特征的识别方法,为了充分利用人脸的局部特征,提出一种基于血流图的分块PCA+FLD的红外人脸识别方法.通过血流模型把红外温谱图转换成血流图,能够利用人体的生物特征增加样本之间的类间距,并减少样本之间类内距.基于各个分块的类间距与类内距比值大小(RD),分块PCA加权可以自适应地提取更适合识别的人脸局部特征,同时还可以缓解Fisher线性判别的小样本问题(零空间问题).实验表明,分块PCA+FLD并不会减少整体特征提取中有用识别信息的提取,而且可以突出局部特征对识别贡献,提高本方法的识别率.
谢志华伍世虔方志军杨寿渊卢宇
关键词:红外人脸识别血流图分块PCA
基于多小波的SPIHT改进算法被引量:6
2007年
为了进一步提高图像编码效率,利用多小波子带上各个分量间的相关性以及分量间能量分布的特点,提出了一种SPIHT改进算法。该算法是根据高频子带第1分量无效值的分布来预测其他3个分量上不重要系数的位置信息,由于减小了无效集判别过程中的扫描范围,从而可加快编码速度。实验结果表明,该算法既提高了编码效率,又保持了压缩性能。
方志军李润午韦礼珍杨寿渊万征
关键词:图像压缩SPIHT算法多小波变换
连续图卷积视频烟雾检测模型被引量:3
2019年
目的视频烟雾检测在火灾预警中起到重要作用,目前基于视频的烟雾检测方法主要利用结构化模型提取烟雾区域的静态和动态特征,在时间和空间上对烟雾信息作同等或相似处理,忽略了视频数据在时间线上的连续性和特征的非结构化关系。图卷积网络(GCN)与神经常微分方程(ODE)在非欧氏结构与连续模型处理上具有突出优势,因此将二者结合提出了一种基于视频流和连续时间域的图烟雾检测模型。方法目前主流的视频烟雾检测模型仍以离散模型为基础,以规则形式提取数据特征,利用ODE网络构建连续时间模型,捕捉视频帧间的隐藏信息,将原本固定时间跨度的视频帧作为连续时间轴上的样本点,充分利用模型的预测功能,补充帧间丢失信息并对未来帧进行一定程度的模拟预测,生成视频帧的特征并交给图卷积网络对其重新建模,最后使用全监督和弱监督两种方法对特征进行分类。结果分别在2个视频和4个图像数据集上进行训练与测试,并与最新的主流深度方法进行了比较,在KMU(Korea Maritime University)视频数据集中,相比于性能第2的模型,平均正样本正确率(ATPR值)提高了0.6%;在2个图像数据集中,相比于性能第2的模型,正确率分别提高了0.21%和0.06%,检测率分别提升了0.54%和0.28%,在视频单帧图像集上正确率高于第2名0.88%。同时也在Bilkent数据集中进行了对比实验,以验证连续隐态模型在烟雾动态和起烟点预测上的有效性,对比实验结果表明所提连续模型能够有效预测烟雾动态并推测烟雾起烟点位置。结论提出的连续图卷积模型,综合了结构化与非结构化模型的优势,能够获得烟雾动态信息,有效推测烟雾起烟点位置,使烟雾检测结果更加准确。
杨龙箴袁非牛杨寿渊杨寿渊雷帮军
关键词:视频烟雾检测
共1页<1>
聚类工具0