Inspired by the recent success of self-supervised methods applied on images, self-supervised learning on graph structured data has seen rapid growth especially centered on augmentation-based contrastive methods. However, these methods pay little attention to the inherent distinction between images and graphs: while augmentation is well defined on images, it may behave arbitrarily on graphs. That is, without carefully designed augmentation techniques, augmentations on graphs may behave arbitrarily in that the underlying semantics of graphs can drastically change. As a consequence, the performance of existing augmentation-based methods is highly dependent on the choice of augmentation scheme, i.e., hyperparameters associated with augmentations. In this paper, we propose a novel augmentation-free self-supervised learning method for graphs, named AFGRL, which learns graph representations without using any arbitrary augmentation scheme. Specifically, we generate an alternative view of a graph by discovering nodes that share the local structural information and the global semantics within the graph. Extensive experiments toward various node-level tasks (i.e., node classification, clustering, and similarity search) and graph-level tasks (i.e. graph classification) on various real-world datasets demonstrate the superiority of AFGRL.
이 논문에서는 그래프의 표상 학습을 레이블 없이 수행하는 방법을 다루었다. 최근 이미지에 적용된 데이터 증강 기반 자기 지도 표상 학습 방법의 성공에 영감을 받아 그래프 구조 데이터에서도 레이블 없는 자기 지도 표상 학습 방법이 활발히 연구되었다. 그러나 기존의 방법론들은 이미지 데이터와 그래프 데이터 사이의 근본적인 차이를 고려하지 않고 모델링 되었다. 즉, 이미지 데이터에서는 데이터 증강 기법이 내재된 의미를 변화시키지 않지만, 그래프 데이터에서는 데이터 증강 기법이 내재된 의미를 변화시킬 수 있다. 따라서, 이러한 근본적인 차이를 고려하지 않는다면, 그래프 데이터에서의 데이터 증강 기법은 모델 성능에 크게 영향을 미치게 된다. 이 논문에서는 데이터 증강 없는 그래프 자기 지도 표상학습 방법 AFGRL 을 제안한다. AFGRL 는 인위적인 데이터 증강 없이 그래프 내부에서 로컬 구조 정보와 전역적 의미를 공유하는 노드를 발견하여 그래프의 대안적 보기를 생성한다. AFGRL 는 노드 수준과 그래프 수준의 다양한 실제 세계 데이터에 대한 광범위한 실험에서 좋은 성능을 보여주었다.