In recent years, the robotics community has witnessed a proliferation of platforms commercialized for diverse applications ranging from home service, delivery, industrial inspection, videography, and exploration in hazardous environments. As the field advances, the development of highly dynamic robotic systems, resembling the capabilities of their natural counterparts becomes increasingly essential. However, such dynamic systems face a significant challenge in the complexity of their control mechanisms, particularly when navigating the dynamic uncertainties inherent in the real world. These uncertainties pose challenges for both model-based and learning-based control approaches. Neglecting these uncertainties may lead to catastrophic failures, particularly when robots are deployed in demanding, long-term missions. To tackle these challenges, we introduce a series of methods that we call uncertainty-driven reinforcement learning framework. These methods harness the inherent uncertainty in dynamic robotics systems to enhance controller robustness and adaptability in harsh, real-world environments. The effectiveness of the proposed methods were demonstrated through a comprehensive real-world experiments featuring drones and legged robots as the primary platforms.
최근 몇 년 동안, 로보틱스에서는 가정 서비스, 배송, 산업 검사, 비디오 촬영 및 위험 환경 탐사와 같은 다양한 응용 프로그램을 위해 상업화된 플랫폼의 급증을 목격하고 있. 이 분야가 발전함에 따라, 자연 환경과 유사한 능력을 갖는 고도로 동적인 로봇 시스템의 개발이 점점 더 중요해지고 있다. 그러나 이러한 동적 시스템은 실제 세계에 내재된 동적 불확실성을 탐색할 때 특히 제어 메커니즘의 복잡성이라는 중요한 도전에 직면하고 있다. 이러한 불확실성은 모델 기반 및 학습 기반 제어 접근 방법 모두에 도전을 제기한다. 이러한 불확실성을 무시하면 로봇이 힘든 장기 임무에서 특히 치명적인 실패로 이어질 수 있다. 이러한 도전에 대처하기 위해 우리는 `불확실성 주도 강화 학습 프레임워크'라고 부르는 일련의 방법을 소개한다. 이러한 방법은 동적 로봇 시스템 내재 불확실성을 활용하여 제어기의 강건성과 적응성을 향상시키기 위한 것이다 . 이러한 제안된 방법의 효과는 주요 플랫폼으로 드론과 보행 로봇을 사용하는 포괄적인 실제 실험을 통해 입증되었다.