您的位置: 专家智库 > >

王佩琪

作品数:4 被引量:5H指数:1
供职机构:清华大学更多>>
发文基金:国家自然科学基金更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 2篇专利
  • 1篇期刊文章
  • 1篇学位论文

领域

  • 4篇自动化与计算...

主题

  • 4篇神经网
  • 4篇神经网络
  • 3篇网络
  • 3篇卷积
  • 2篇神经网络计算
  • 2篇自适
  • 2篇自适应
  • 2篇网络规模
  • 2篇网络计算
  • 2篇可重构
  • 2篇并行度
  • 1篇硬件
  • 1篇软硬件
  • 1篇软硬件协同
  • 1篇数据表示
  • 1篇体系结构
  • 1篇稀疏性
  • 1篇卷积神经网络
  • 1篇浮点

机构

  • 4篇清华大学

作者

  • 4篇王佩琪
  • 3篇刘振宇
  • 3篇汪东升
  • 1篇王海霞
  • 1篇高原

传媒

  • 1篇计算机研究与...

年份

  • 1篇2020
  • 1篇2019
  • 2篇2017
4 条 记 录,以下是 1-4
排序方式:
深度卷积神经网络的数据表示方法分析与实践被引量:5
2017年
深度卷积神经网络在多个领域展现了不凡的性能,并被广泛应用.随着网络深度的增加和网络结构不断复杂化,计算资源和存储资源的需求也在不断攀升.专用硬件可以很好地解决对计算和存储的双重需求,在低功耗同时满足较高的计算性能,从而应用在一些无法使用通用CPU和GPU的场景中.在专用硬件设计过程中仍存在着很多亟待解决的问题,例如选择何种数据表示方法、如何平衡数据表示精度与硬件实现代价等.为解决上述问题,针对定点数和浮点数建立误差分析模型,从理论角度分析如何选择表示精度及选择结果对网络准确率的影响,并通过实验探究不同数据表示方法对硬件实现代价的影响.通过理论分析和实验验证可知,在一般情况下,满足同等精度要求时浮点表示方法在硬件实现开销上占有一定优势.除此之外,还根据浮点表示特征对神经网络中卷积操作进行了硬件实现,与定点数相比在功耗和面积上分别降低92.9%和77.2%.
王佩琪高原刘振宇王海霞汪东升
一种自适应可重构的深度卷积神经网络计算方法和装置
本发明涉及一种自适应可重构的深度卷积神经网络计算方法和装置,该方法包括:根据控制信号决定计算装置的程序执行流程;根据深度神经卷积网络规模参数对基本计算基元进行动态重构确定运算单元的组合级别和并行度;根据不同的重构情况载入...
汪东升王佩琪刘振宇
文献传递
一种自适应可重构的深度卷积神经网络计算方法和装置
本发明涉及一种自适应可重构的深度卷积神经网络计算方法和装置,该方法包括:根据控制信号决定计算装置的程序执行流程;根据深度神经卷积网络规模参数对基本计算基元进行动态重构确定运算单元的组合级别和并行度;根据不同的重构情况载入...
汪东升王佩琪刘振宇
神经网络软硬件协同加速关键技术
深度神经网络的快速发展,推动了人工智能领域的革命性进步,同时也改变了人们的生产生活方式,在广泛的应用领域中取得了令人瞩目的成果。这些深度神经网络通常拥有很大规模,对硬件平台的计算资源和存储资源的需求也十分庞大,限制了在实...
王佩琪
关键词:软硬件协同体系结构
共1页<1>
聚类工具0