A distributed representation has become a popular approach to capturing a word meaning. However,
while humans tend to use more diverse sources such as perception, cognition, and emotion in developing a
word meaning, it is hardly captured by current amodal or bimodal approaches. In this paper, we propose
polymodal embeddings for such multifaceted nature of word meanings. In particular, we attempt to
integrate several aspects of word meanings using additional data based on the human cognition model.
We show that the proposed method outperforms the state-of-the-art baselines in word similarity task
and hypernym prediction task. Also, we investigate which aspects of word meanings are not sufficiently
reflected by the embedding and suggest a solution. Finally, we computationally show the different
characteristics of concrete words and abstract words and the difference between the word similarity and
the word relatedness.
인간이 단어의 의미를 이해하는데는 지각, 지식, 감정과 같은 다양한 인지적 요소들이 반영되어있다.
하지만 최근 단어의 의미를 표현하기 위해 주로 사용되는 분산 표상(Distributed representation)은 단어가
가진 본질적인 인지적 특성을 충분히 고려하지 않기 때문에 단어 의미의 풍부한 다면적 특성을 잘 반영하지
못한다는 한계를 가지고 있다. 이 논문에서는 단어의미의 다면적 특성이 무엇인지를 설명하고, 이를 고려하
기 위한 폴리모달 임베딩을 제시한다. 이 단어 임베딩은 선형 및 의존 문맥 뿐만이 아니라 지각, 인지, 감정,
정서와 같이 단어 의미에 영향을 줄 수 있는 다양한 인지적 특성을 고려하여 학습되었으며, 단어 유사도
측정과 상위어 예측 실험에서 기존 방법론들에 비해 주목할만한 성능 향상을 보였다. 또한 실험을 통해 말
뭉치를 통해 학습된 기존 단어 표상에 잘 반영되지 않았던 의미들을 밝혀내고, 이를 해결하기 위한 해결책을
제시하였다. 마지막으로 단어가 가지고 있는 의미의 구체성(concreteness)이 의미에 미치는 영향과 단어
의미의 유사성(similarity)와 연관성(relatedness)의 차이점을 계산적 방법을 통하여 분석하였다.