서지주요정보
Trocar tracking using deep learning for teleoperated microsurgery robots in vitreoretinal surgery = 유리체 절제술 수행용 원격조종 미세수술로봇을 위한 딥러닝 기반 트로카 추적
서명 / 저자 Trocar tracking using deep learning for teleoperated microsurgery robots in vitreoretinal surgery = 유리체 절제술 수행용 원격조종 미세수술로봇을 위한 딥러닝 기반 트로카 추적 / Benjamin Ionescu.
저자명 Ionescu, Benjamin ; Benjamin Ionescu
발행사항 [대전 : 한국과학기술원, 2020].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8036530

소장위치/청구기호

학술문화관(도서관)2층 패컬티라운지(학위논문)

MRE 20011

휴대폰 전송

도서상태

이용가능

대출가능

반납예정일

리뷰정보

초록정보

Vitreoretinal surgery represents a medical procedure whose tasks exist on the edge of human capability, given the relative scale of possible human hand movements, and afflicted areas on the retina. Performing vitreoretinal surgery using teleoperated robots, as opposed to manually, can potentially greatly reduce the difficulty level and required skill, and minimize the risk for the patient. However, the method employed by existing microsurgery robots for computing the remote centre of motion (RCM) of their surgical tool depends on a spherical eye model which is insufficiently accurate. In this thesis, a safety concern associated with inaccurate RCM placement is shown. A computer vision-based system is proposed which can provide an accurate, model-free RCM placement, as well as enable automatic microscope positioning. A camera is added to a microsurgery robot and the video feed is segmented to locate the iris and trocars in real time in 2-D using a convolutional neural network (CNN). The computed trocar positions are used in tandem with information provided by the robot’s encoders to place the 3-D position of the slave robot’s RCM. The iris position can be used to align the iris with the microscope automatically, to provide the view of the workspace inside the eye. The system’s accuracy is validated in a dry-lab experiment.

유리체절제수술은 사람의 상대적인 손 움직임과 각막에 손상된 부분이 있을때 사람의 능력으로 이뤄낼수 있는 의료절차이다. 유리체절제수술을 할때 사람이 직접 수술하는거 보다 텔레오퍼레이션 로봇을 사용하는게 잠재적으로 수술의 어려움과 난이도 그리고 환자에 대한 리스크를 많이 줄여줄수있다. 그러나, 현존하는 마이크로수술용 로봇들이 수술용 도구에 RCM을 계산하기 위한 방법들은 충분히 정확하지 않은 구형 안구 모델에 의존하고 있다. 이 학위 논문에서는 비정확한 RCM의 배치에 연관된 안전 문제가 다뤄진다. 또한, 컴퓨터비전을 기반으로한 정확하고 모델에 의존하지 않는 RCM 배치 방법 그리고 자동적인 현미경 배치가 가능한 시스템을 제안한다. 마이크로수술 로봇에 추가된 카메라 한대를 통해 얻어진 영상을 2차원 합성곱신경망을 통한 실시간으로 눈의 홍채와 투관침을 분절한다. 계산된 투관침의 위치정보는 로봇의 인코더로 부터 얻은 정보와 함께 수술용 슬레이브 로봇의 3차원 RCM 위치를 추정할수 있다. 홍채의 위치정보는 자동으로 현미경의 위치를 눈 내부의 작업공간을 파악할수 있도록 눈의 홍채에 정렬시키게 사용될수 있다. 이 시스템의 정확성은 드라이랩 실험을 통해서 검증되었다.

서지기타정보

서지기타정보
청구기호 {MRE 20011
형태사항 39 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : Benjamin Ionescu
지도교수의 영문표기 : Dong-Soo Kwon
지도교수의 한글표기 : 권동수
학위논문 학위논문(석사) - 한국과학기술원 : 로봇공학학제전공,
서지주기 References : p. 38-39
주제 Vitreoretinal surgery
microsurgery robot
master-slave
RCM
Computer vision
semantic segmentation
CNN
수녀원 신경망
미세 수술
원격 조종 로봇
RCM
자궁내막수술
컴퓨터 시각
QR CODE qr code