徐君 作品数:10 被引量:21 H指数:3 供职机构: 中国科学院计算技术研究所 更多>> 发文基金: 国家自然科学基金 国家重点基础研究发展计划 西藏自治区科技计划项目 更多>> 相关领域: 自动化与计算机技术 更多>>
片上多处理器的低功耗系统结构研究 张戈 张锋 杨梁 徐君 范宝侠 曹非 王焕东 郝守青 齐子初 凡启飞 张逸溦 王茹 段玮 (1)在片上多处理器的结构级功耗评估技术方面,研究了多核处理器中基本功能电路的功耗建模方法,搭建了基本功能块的物理实现与功耗提取实验板平台,建立了多核结构及功耗模拟器。(2)在动态自适应低功耗处理器核结构方面,以“按需计...关键词:关键词:片上多处理器 模拟器 面向多片段答案的抽取式阅读理解模型 被引量:5 2020年 随着搜索技术的发展,抽取式阅读理解已经成为搜索引擎中重要的组成部分.给定问题和文本,抽取式阅读理解任务要求从文本中定位出问题的答案.已有工作仅考虑答案片段由文本中的一个片段组成的情况,因此把该问题建模为输入问题和文本,预测出两个文本中的位置索引去指示答案的起始和结束位置.然而现实应用中存在大量问题其答案往往由文本中一个或多个片段组成,想要回答该问题需要从文本中定位出若干的文本片段,而不再是单一片段.已有的阅读理解模型研究主要关注在模型底层结构的设计,对于多片段答案的情况未予考虑,导致已有模型无法从文本中抽取多个答案片段去回答问题.本文提出面向多片段答案的抽取式阅读理解模型BERTBoundary,该模型采用预训练的BERT作为底层结构进行文本和问题的理解.BERT通过自我注意力机制和前向神经网络对文本和问题进行编码表示,同时利用在大规模无监督语料上进行BERT模型参数的预训练达到更强的文本理解.利用新颖的边界序列标注方式去建模一段文本中多个答案片段,模型对答案的起始位置和结束位置分别进行序列标注,对每个词进行二分类,判断其是否是答案的起始位置或者结束位置,并通过简单有效的序列标注方式进行答案片段的解码.BERT-Boundary结合了BERT的文本理解能力和边界序列标注的多片段建模能力.我们在构造的大规模多片段答案的阅读理解数据集上进行详尽地实验和分析,实验结果表明,BERT-Boundary的性能比基线方法取得一致的提升.我们进一步在不同答案片段长度和答案片段数量上比较我们的模型和基线方法,实验数据表明,我们的方法比基线方法取得一致的提升.我们的代码公开发布在https://github.com/lixinsu/multi_span. 苏立新 郭嘉丰 郭嘉丰 兰艳艳 徐君 兰艳艳数据访问方法、路由装置和存储系统 本发明实施例提供一种数据访问方法、路由装置和存储系统,该方法应用于包括第一存储设备、第二存储设备和至少一个路由装置的存储系统;每个存储设备的中逻辑单元包括:至少一个第一类逻辑块和至少一个第二类逻辑块,该方法在路由装置为应... 李天祥 徐君 王元钢文献传递 数据访问方法、路由装置和存储系统 本发明实施例提供一种数据访问方法、路由装置和存储系统,该方法应用于包括第一存储设备、第二存储设备和至少一个路由装置的存储系统;每个存储设备的中逻辑单元包括:至少一个第一类逻辑块和至少一个第二类逻辑块,该方法在路由装置为应... 李天祥 徐君 王元钢文献传递 基于上下文的深度语义句子检索模型 被引量:3 2017年 传统的信息检索的研究多集中在文档级的检索场景中,然而,句子级的检索在如移动应用以及信息需求更加明确的检索场景下具有非常重要的意义。在句子级的检索场景下,我们认为句子的上下文能够提供更加丰富的语义信息来支撑句子与查询的匹配,基于此,该文提出了一个基于句子上下文的深度语义句子检索模型(contextaware deep sentence matching model,CDSMM)。具体的,我们使用双向循环神经网络来建模句子内部以及句子上下文的语义信息,基于句子和查询的语义信息得到它们的匹配程度,在WebAP句子检索数据集上的实验表明,我们的模型性能显著地优于其他的方法,并取得了目前最好的效果。 范意兴 郭嘉丰 兰艳艳 徐君 程学旗关键词:信息检索 文本匹配 循环神经网络 一种面向开放文本的领域概念抽取方法 本发明提供一种面向开放文本的领域概念抽取方法,包括:1)遍历开放文本集合,从每一篇开放文本中提取候选领域概念;对于每一候选领域概念,利用该候选领域概念的短语拆分结果、上下文信息和百科分类信息得到该候选领域概念所关联的词向... 贾岩涛 陈新蕾 王元卓 徐君 程学旗文献传递 基于拓展关键词信息的对话生成模型 被引量:1 2019年 在对话过程中,人们通常根据对方上一句话的关键词做出相应的回复。为了生成与关键词含义相关的回复,提出了拓展关键词信息注意力机制的对话生成模型。首先从输入语句中提取关键词,然后根据关键词词向量余弦相似度找出与关键词相关的词语构成拓展关键词集合,将集合中词语的词向量通过注意力机制的方式加入解码过程来影响回复生成。在中文微博数据集及英文Twitter数据集上的实验表明,该模型在回复语句的相关性及多样性方面取得了优于其他模型的结果。 郝长盈 兰艳艳 张海楠 郭嘉丰 郭嘉丰 庞亮 徐君深亚微米VLSI设计中的信号完整性问题研究 本文首先阐述了串扰研究领域的热点问题,如模型建立、估算技术、避免与修复方法等,然后将重点放在0.13μm工艺下龙芯2号处理器访存模块的信号完整性实现流程。为此,比较了市场上最著名的串扰分析工具PrimeTime SI和C... 徐君关键词:处理器 文献传递 分布式单词表示综述 被引量:7 2019年 单词表示作为自然语言处理的基本问题,一直广受关注.传统的独热表示丢失了单词间的语义关联,因而在实际使用中易受数据稀疏问题困扰.而分布式表示通过将单词表示为低维稠密实数向量,捕捉单词间的关联信息.该表示方式可在低维空间中高效计算单词间的语义关联,有效解决数据稀疏问题.作为神经网络模型的基本输入,单词分布式表示伴随着深度学习被广泛应用于自然语言处理领域的方方面面.从早期的隐式语义分析,到最近的神经网络模型,研究人员提出了各种各样的模型来学习单词的分布式表示.本文梳理了单词分布式表示学习的发展脉络,并从模型利用上下文入手,将这些模型统一在分布语义假设框架下,它们的区别只在于建模了单词不同的上下文.以隐式语义分析为代表的话题模型,利用文档作为上下文,建模了单词间的横向组合关系;以神经网络语言模型为代表的工作,则利用单词周围单词作为上下文,建模了单词间的纵向聚合关系.此外,本文还总结了单词分布式表示目前面临的主要挑战,包括多义词的表示、稀缺单词表示学习、细粒度语义建模、单词表示的解释性以及单词表示的评价,并介绍了最新的已有解决方案.最后,本文展望了单词表示未来的发展方向与前景。 孙飞 郭嘉丰 郭嘉丰 兰艳艳 徐君