华南理工大学学报(自然科学版) ›› 2018, Vol. 46 ›› Issue (8): 122-129.doi: 10.3969/j.issn.1000-565X.2018.08.017

• 计算机科学与技术 • 上一篇    下一篇

单词和字符表示的协同学习
 

刘慧婷1,2,凌超1,2   

  1. 1. 安徽大学 计算智能与信号处理教育部重点实验室,安徽 合肥 230039;
    2. 安徽大学 计算机科学与技术学院,安徽 合肥 230601
  • 收稿日期:2017-10-23 修回日期:2018-02-04 出版日期:2018-08-25 发布日期:2018-07-01
  • 通信作者: 刘慧婷(1978-),女,副教授,主要从事自然语言处理研究. E-mail:htliu@ahu.edu.cn
  • 作者简介:刘慧婷(1978-),女,副教授,主要从事自然语言处理研究.
  • 基金资助:
    国家自然科学基金;国家自然科学基金

Collaborative Learning of Word and Character Representation

 LIU Huiting1,2 LING Chao1, 2    

  1.  1. Key Laboratory of Intelligent Computing and Signal Processing of the Ministry of Education,Anhui University,Hefei 230039, Anhui,China; 2. School of Computer Science and Technology,Anhui University,Hefei 230601,Anhui,China
  • Received:2017-10-23 Revised:2018-02-04 Online:2018-08-25 Published:2018-07-01
  • Contact: 刘慧婷(1978-),女,副教授,主要从事自然语言处理研究. E-mail:htliu@ahu.edu.cn
  • About author:刘慧婷(1978-),女,副教授,主要从事自然语言处理研究.
  • Supported by:
    The National Natural Science Foundation of China(61202227)

摘要: 摘 要:当前的词嵌入模型多数基于分布假设理论, 这类模型将单词作为最基本语义单元, 然后利用词的外部上下文信息学习词表示. 然而, 在类似于汉语的语言中,单词经常由多个字符组成, 这些字符包含了丰富的内部信息, 同时单词的语义也和这些字符的语义息息相关. 考虑到当前常用词模型均忽略了字符信息,本文以中文为例, 提出单词与字符协同学习模型. 并且, 为了解决汉语中存在单字符多语义和多字符单语义的情况, 本文提出基于多语义字符与单词协同学习模型和多字符单语义选择方法. 最后,使用词相似任务和类比推理任务对提出的新模型进行评估, 结果显示本文提出的模型均优于其他词嵌入模型.

关键词:  词表示, 外部上下文, 内部信息, 协同学习 

Abstract: Abstract: Most word embedding models are based on the theory of distribution hypothesis, which take a word as a basic unit and infer word representation from its external contexts. However, in some languages similar to Chinese, a word is built from several characters and these characters contains rich internal information. The semantic of a word is closely related to the semantic of its composing characters. Therefore, this paper take Chinese for example and present two model to collaborative learn word and character representation. In order to solve the phenomenon of homonymy and polysemy, multiple-prototype character embeddings and an word selection method are proposed. We evaluate the proposed models on similarity tasks and analogy tasks. The results demonstrates the proposed models outperform other baseline models.

Key words: word representation, external contexts, internal information, collaborative learning

中图分类号: