Recent advancements in autonomous driving have seen a growing interest in object detection research using RADAR. RADAR offers the advantages of cost-efficiency and high reliability in adverse weather conditions compared to cameras or LiDAR. However, the low angular resolution of RADAR increases uncertainty in object detection. To overcome this, previous studies have sought to enhance performance through deep learning based temporal modeling and sensor fusion. While effective for low-speed vehicle RADAR, these methods have limitations at high speeds due to inadequate consideration of the data acquisition speed of the sensor. To address this issue, we propose a method that explicitly improves temporal modeling through the analysis of affine transformations between consecutive frames. This approach, applied to feature fusion, distinctly models moving vehicles and stationary backgrounds, significantly enhancing object detection performance. The efficacy of our model has been demonstrated on the RADIATE that is RADAR dataset.
최근 자율 주행 분야에서 RADAR를 활용한 객체 감지 연구에 대한 관심이 증가하고 있다. RADAR는 카메라나 LiDAR에 비해 비용 효율성과 악천후에서의 높은 신뢰성을 제공하는 강점이 있다. 그러나 RADAR의 낮은 각해상도는 객체 탐지 시 불확실성을 증가시킨다. 이를 극복하기 위해 이전 연구들은 딥러닝을 기반으로 한 시간적 모델링이나 센서 융합 등을 통해 성능을 향상시키고자 했다. 이 방법들은 저속 차량의 RADAR에서는 효과적이나, 고속에서는 센서의 데이터 취득 속도를 고려하지 못해 한계가 있다. 이 문제를 해결하기 위해 우리는 연속된 프레임 간의 아핀 변환 분석을 통해 시간적 모델링을 더욱 명시적으로 개선하는 방법을 제안한다. 이 방법은 특징 융합에 적용되어 움직이는 차량과 정지된 배경의 시간적 모델링을 구분함으로써 객체 감지 성능을 크게 향상시키는 효과를 보여주었다. 우리의 모델은 RADAR 데이터셋인 RADIATE에서 그 효율성이 입증되었다.