Recent advances in saliency detection have utilized deep learning to obtain high level features to detect salient regions in a scene. These advances have demonstrated superior results over previous works that utilize hand-crafted low level features for saliency detection. In this paper, we demonstrate that hand-crafted features can provide complementary information to enhance performance of saliency detection that utilizes only high level features. Our method utilizes both high level and low level features for saliency detection under a unified deep learning framework. The high level features are extracted using the VGG-net, and the low level features are compared with other parts of an image to form a low level distance map. The low level distance map is then encoded using a convolutional neural network(CNN) with multiple $1 \times 1$ convolutional and ReLU layers. We concatenate the encoded low level distance map and the high level features, and connect them to a fully connected neural network classifier to evaluate the saliency of a query region. Our experiments show that our method can further improve the performance of state-of-the-art deep learning-based saliency detection methods.
이 논문에서는 하이 레벨 성분과 로우 레벨 차이 맵을 활용하여 핵심 영역을 검출하는 것을 다루었다. 최근 CNN로부터 얻는 고레벨 정보를 활용한 핵심 영역 검출 연구가 활발하다. 우리는 이러한 고레벨 정보와 더불어 색상, 질감과 같은 저레벨 차이 맵을 함께 이용하여 핵심 영역을 검출하는 방법을 제시하였다. 고레벨 정보는 VGG16 모델로부터 얻으며 저레벨 성분 차이는 이미지의 질의 영역을 다른 부분들과 색상, 질감 등을 비교하여 만든다. 저레벨 차이 맵은 이후 $1 \times 1$ 필터 크기를 가진 CNN을 이용하여 압축된다. 압축된 저레벨 차이 맵과 고레벨 정보를 연결한 후 Fully-connected 신경망 분류기를 이용하여 구하고자 하는 영역이 핵심적인지를 판별한다. 본 논문은 기존의 CNN만을 활용한 다른 최신 논문들과 비교하였을 때 성능 향상을 보여주고 있다.