Most Knowledge Graph(KG) embedding models require negative sampling to learn the representations of KG by discriminating the differences between positive and negative triples. Knowledge representation learning tasks such as link prediction are heavily influenced by the quality of negative samples. Despite many attempts, generating high-quality negative samples remains a challenge. In this paper, we propose a novel framework, Bootstrapped Knowledge graph Embedding based on Neighbor Expansion (BKENE), which learns representations of KG without using negative samples. Our model avoids using augmentation methods that can alter the semantic information when creating the two semantically similar views of KG. In particular, we generate an alternative view of KG by aggregating the information of the expanded neighbor of each node with multi-hop relation. Experimental results show that our BKENE outperforms the state-of-the-art methods for link prediction tasks.
지식 그래프 임베딩 모델은 파지티브 트리플과 네거티브 트리플의 차이를 구별하여 지식 그래프의 저차원 벡터을 학습하기 위해 음의 샘플링을 필요로 한다. 링크 예측과 같은 지식 표현 학습은 네거티브의 샘플을 정의하는 방법에 따라 성능의 차이가 존재힌다. 고품질의 음의 샘플을 생성하려는 여러 연구가 있었지만, 여전히 네거티브 샘플을 정의하는 것은 어려운 문제이다. 본 논문에서는 네거티브 샘플을 사용하지 않고 지식 그래프 임베딩을 학습하는 새로운 프레임워크를 제안한다. 해당모델은 한 개의 지식 그래프에 대한 두가지 뷰를 생성할 떄, 인코더의 이웃 노드 정의 방식을 확장하여 네거티브 샘플을 사용하지 않는다. 실험 결과는 우리의 BKENE가 링크 예측 작업에 대한 최첨단 방법을 능가한다는 것을 보여준다. 또한 여러 실험결과를 통해 제안한 방법이 그래프의 연결관계를 잘 예측한 다는 것을 보인다.