您的位置: 专家智库 > >

国家自然科学基金(61300148)

作品数:14 被引量:112H指数:6
相关作者:左万利王英王鑫王俊华高云龙更多>>
相关机构:吉林大学长春工程学院长春工业大学更多>>
发文基金:国家自然科学基金吉林省重大科技攻关项目中央级公益性科研院所基本科研业务费专项更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 13篇中文期刊文章

领域

  • 13篇自动化与计算...

主题

  • 3篇用户
  • 3篇用户兴趣
  • 3篇网络
  • 2篇单词
  • 2篇信任
  • 2篇信任关系
  • 2篇语义
  • 2篇证据理论
  • 2篇神经网
  • 2篇神经网络
  • 2篇相似度
  • 2篇相似度度量
  • 2篇链接
  • 2篇矩阵
  • 2篇非负矩阵
  • 1篇短文
  • 1篇学理
  • 1篇遗忘
  • 1篇引擎
  • 1篇用户兴趣挖掘

机构

  • 13篇吉林大学
  • 4篇长春工程学院
  • 2篇长春工业大学
  • 1篇桂林电子科技...
  • 1篇伊利诺伊大学

作者

  • 13篇左万利
  • 7篇王英
  • 4篇王鑫
  • 3篇王俊华
  • 2篇彭涛
  • 2篇国琳
  • 2篇高云龙
  • 1篇凤丽洲
  • 1篇刘露
  • 1篇左祥麟
  • 1篇闫昭
  • 1篇王友卫
  • 1篇王萌萌
  • 1篇苏雪阳
  • 1篇赵秋月

传媒

  • 4篇电子学报
  • 3篇计算机研究与...
  • 1篇自动化学报
  • 1篇计算机学报
  • 1篇北京理工大学...
  • 1篇软件学报
  • 1篇计算机科学
  • 1篇吉林大学学报...

年份

  • 2篇2018
  • 3篇2016
  • 5篇2015
  • 3篇2014
14 条 记 录,以下是 1-10
排序方式:
一种基于改进D-S证据理论的信任关系强度评估方法研究被引量:28
2014年
随着Web 2.0技术的迅速发展,社会网络开始在我们的生活中扮演着重要的角色,越来越多的人在网络中发表言论、互相交流、共享信息.然而,在社会网络中,信任关系是用户间进行交互的基础,不同用户之间的信任关系强度不同,相同用户在不同领域内的信任关系强度也存在差异,信任关系的不确定性是信任评估的最大挑战.针对以上问题提出了一种基于改进D-S证据理论的灵活直观的评估方法,该方法综合考虑用户被关注度、用户信誉度、用户活跃度和用户相似度4个方面,将这4个方面作为4个属性证据,同时根据模糊理论中的隶属度原理获取基本信任分配,然后基于以上4个属性证据构建多源属性证据信任关系强度融合模型,在领域内对其信任关系强度进行评估,最后采用Epinions中真实的数据集进行实验.实验结果验证了该方法的可行性和优势,为复杂的社会网络环境中信任关系强度评估的研究提供了有价值的新思路.
赵秋月左万利田中生王英
关键词:社会网络D-S证据理论社会计算
基于兴趣图谱的用户兴趣分布分析及专家发现被引量:6
2015年
尽管用户可自主生成个性化数据以更全面描述个人偏好,但由于用户创建数据不严谨、不可控,导致生成的庞大数据集大多存在质量低、噪声严重的缺陷.因此管理复杂网络信息时,不能仅使用写入性知识,必须重视具有大量领域知识的专家,因为其可为系统提供高质量的信息.本文通过构建和分析用户兴趣分布曲线以发现兴趣领域专家,并提出甄别状态不正常的伪专家算法.由于网络中权威专家数量较少,所以所提供的信息是有限的.因此本文定义的领域专家不仅包含权威专家,而且包含普通用户中对某领域有极高关注的兴趣领域专家.实验证明算法的正确性和高效性,并且较低的复杂度使其可处理海量用户节点信息.
国琳左万利
基于集成神经网络的短文本分类模型被引量:12
2018年
针对短文本具有稀疏性强和文本长度较小等特性,为更好地处理短文本分类问题,提出一个基于集成神经网络的短文本分类模型.首先,使用扩展词向量作为模型的输入,从而使数值词向量可有效描述短文本中形态、句法及语义特征;其次,利用递归神经网络(RNN)对短文本语义进行建模,捕获短文本内部结构的依赖关系;最后,在训练模型过程中,利用正则化项选取经验风险和模型复杂度同时最小的模型.通过对语料库进行短文本分类实验,验证了所提出模型有较好的分类效果,且该分类模型可处理变长的短文本输入,具有良好的鲁棒性.
高云龙左万利左万利王英
关键词:集成神经网络
基于隶属度的社会化网络重叠社区发现及动态集群演化分析被引量:6
2016年
社会化网络中节点的复合属性可能为临时或过时状态,并且节点拥有一定能力维持固有状态,所以不可单纯依据新增数据或节点现有特征确定社区划分.本文提出可重叠社区发现算法及集群动态更新方案,根据网络历史数据分析节点对原始集群的隶属程度,并结合新增数据确定节点变化趋势,实现网络结构分析及社区动态更新.本文分别在不同数据集中测试聚类效果,实验结果证明算法既保持对新增数据的敏感度,也防止了节点短暂特征或节点维持固有状态的能力对划分结果的负面影响.
国琳左万利彭涛
关键词:社会化网络聚类自适应算法
基于稀疏自学习卷积神经网络的句子分类模型被引量:9
2018年
句子分类模型的建立对于自然语言理解的研究有着十分重要的意义.基于卷积神经网络(convolutional neural networks,CNN)提取数据特征的特点,提出基于稀疏自学习卷积神经网络(sparse and self-taught CNN,SCNN)的句子分类模型.首先,在卷积层排除人为约定的特征map输入,自学习前一层输入的特征矩阵的有效组合,动态捕获句子范围内各个特征的有效关联;然后,在训练过程中利用L1范数增加稀疏性约束,降低模型复杂度;最后,在采样层利用K-Max Pooling选择句子中最大特征的序列,并保留特征之间的相对次序.SCNN可以处理变长的句子输入,模型的建立不依赖于句法、分析树等语言学特征,从而适用于任何一种语言.通过对语料库进行句子分类实验,验证了所提出模型有较好的分类效果.
高云龙左万利左万利王英
关键词:自学习L1范数
基于证据理论的单词语义相似度度量被引量:4
2015年
单词语义相似度度量一直是自然语言处理领域的经典和热点问题,其成果可对词义消歧、机器翻译、本体映射、计算语言学等应用具有重要影响.本文通过结合证据理论和知识库,提出一个新颖的度量单词语义相似度度量途径.首先,借助通用本体Word Net获取证据;其次,利用散点图分析证据的合理性;然后,使用统计和分段线性插值生成基本信任分配函数;最后,结合证据冲突处理、重要度分配和D-S合成规则实现信息融合获得全局基本信任分配函数,并在此基础上量化单词语义相似度.在数据集R&G(65)上,对比本文算法评判结果与人类评判结果的相关度,采用5折交叉验证对算法进行分析,相关度达到0.912,比当前最优方法 P&S高出0.4个百分点,比经典算法re LHS、dist JC、sim LC、sim L和sim R高出7%~13%;在数据集M&C(30)和Word Sim353上也取得了比较好的实验结果,相关度分别为0.915和0.941;且算法的运行效率和经典算法相当.实验结果显示使用证据理论解决单词语义相似度问题是合理有效的.
王俊华左祥麟左万利
关键词:词计算统计学习证据理论
基于人工免疫算法的增量式用户兴趣挖掘被引量:7
2015年
了解用户兴趣是为用户提供个性化服务的关键。用户兴趣有短期兴趣和长期兴趣之分,且具有不稳定性。受人工免疫系统的启发,巧妙地将免疫应答过程应用于用户兴趣挖掘。首先将概率与时间相结合,提出"概念时序动态"的概念,以更好地刻画用户在一段时间内对同一兴趣的关注程度;然后基于人工免疫原理,建立抽取兴趣标签的分类器来提取用户兴趣标签;最后针对增量式学习,建立兴趣标签的"概念时序动态",刻画出用户兴趣自首次出现以来受关注的程度,以此为依据来判断兴趣是否存在迁移及遗忘现象,并为每个兴趣标签附上权重。其主要贡献是创造性地将人工免疫原理应用于用户短期兴趣和长期兴趣的挖掘,并具有增量特性,可以很好地体现用户兴趣迁移特征,是一种自然完整的用户兴趣模型。实验结果表明,该学习模型能够很好地发现用户关注的领域,其平均精度和召回率分别达到79.5%和74.4%,是目前最贴近用户的兴趣挖掘模型。
左万利韩佳育刘露王英彭涛
关键词:人工免疫系统
基于本体与模式的网络用户兴趣挖掘被引量:6
2014年
本文探讨了用户兴趣挖掘的新方法,首先从用户搜索日志中获取访问行为元素,并借助通用本体中的概念描述网页所体现的用户个体兴趣,然后提出了一种兴趣得分计算方法,并在此基础上从用户个体兴趣序列中识别不同的兴趣模式,判断用户的短期兴趣,并利用通用本体得出用户兴趣的集合表示,最后根据短期兴趣的增量积累推算长期兴趣.整个过程避开了以往兴趣挖掘方法中通过相似度计算和文档聚类算法进行兴趣合并的问题,为兴趣发现提供了新思路.实验结果表明,本文的方法对用户兴趣的描述更具体,取得了更优化的兴趣合并结果.
苏雪阳左万利王俊华
关键词:搜索引擎用户兴趣
基于加权非负矩阵分解的链接预测算法被引量:2
2016年
本文针对在线微博,首先,基于带权动态链接预测特征集合,以用户社会关系因子约束目标函数,从用户概要和用户发布内容两个维度利用非负矩阵分解方法预测社会网络中链接的存在性和方向性.然后,在真实的数据集上验证了提出框架的有效性,并通过实验进一步证明了特征权重和时间信息在链接预测问题中的重要性.
王萌萌左万利王英
关键词:非负矩阵分解时间信息
基于朴素贝叶斯模型的单词语义相似度度量被引量:12
2015年
单词语义相似度度量是自然语言处理领域的经典和热点问题.通过结合朴素贝叶斯模型和知识库,提出一个新颖的度量单词语义相似度度量途径.首先借助通用本体WordNet获取属性变量,然后使用统计和分段线性插值生成条件概率分布列,继而通过贝叶斯推理实现信息融合获得后验概率,并在此基础上量化单词语义相似度.主要贡献是定义了单词对距离和深度,并将朴素贝叶斯模型用于单词语义相似度度量.在基准数据集R&G(65)上,对比算法评判结果与人类评判结果的相关度,采用5折交叉验证对算法进行分析,样本Pearson相关度达到0.912,比当前最优方法高出0.4%,比经典算法高出7%~13%;Spearman相关度达到0.873,比经典算法高出10%~20%;且算法的运行效率和经典算法相当.实验结果显示将朴素贝叶斯模型和知识库相结合解决单词语义相似度问题是合理有效的.
王俊华左万利闫昭
关键词:语义相似度朴素贝叶斯模型WORDNET
共2页<12>
聚类工具0