We target to improve multi-hop question answering (QA) by decomposing hard questions into simpler ones that can be answered by existing single-hop QA models. Instead of manually labeling question with decompositions or building decompositions from an external question dataset, we leverage an existing question generation (QG) model to produce high-quality dataset for training a question decomposition model, in which the decompositions are semantically relevant to the questions. Then, we adapt the previous multi-hop QA architecture utilizing decomposed sub-questions, by answering sub-questions with an existing QA model and using corresponding supporting sentences to reformulate the multi-hop questions. Experiments on HOTPOTQA show that, with equivalent amount of training data, our newly-generated decompositions help to boost the performance by 3.1 points on Ans EM score. By combining with previous training data, our model outperforms all existing question-decomposition-based models, and shows competitive results with state-of-the-art graph-based approaches.
본 논문은 높은 난이도의 다중 문단 질의응답 문제를 해결하기 위해 질문들을 여러 단위의 간단한 질문으로 분해하여 단일 문단 질의응답 모델로 해결 가능한 문제들로 변환하는 방식을 제안한다. 수동적인 데이터 레이블링이나 외부 질의 데이터로부터 분해된 질문 데이터를 쌓는 대신, 본 논문이 제안하는 방식은 기존의 질의 생성 (Question Generation) 모델을 이용하여 입력 질의와 유사한 의미를 지니며 높은 품질을 지닌 질의 데이터셋을 만들어 질의 분해 모델을 학습하는 것이다. 또한, 기존의 다중 문단 질의응답 모델에 분해된 질의를 적용하여 얻어낸 근거 문장들로 다중 문단 질의를 재구성한다. HOTPOTQA 데이터셋을 이용한 실험에 의하면, 동일한 수의 훈련 데이터를 사용했을 때 본 연구가 제시하는 분해 방식이 Ans EM 스코어를 3.1점 만큼 증가시킨다. 기존의 훈련 데이터와 함께 적용할 경우, 본 모델을 기존의 질의 분해 기반 모델들을 모두 뛰어넘는 성능을 보이며, 최신 그래프 기반 모델들과 비교해서 대등한 성능을 보인다.