Our brain has an innate ability to perform various cognitive functions by processing external sensory stimuli. These functions are known to be processed by neurons that selectively respond to specific sensory information, but it is unclear how such properties emerge and what functions they have. Recently, as artificial deep neural networks (DNNs) are showing human-level performance in various perceptual tasks, DNNs are suggested as a new test bed for understanding the computational principles of cognitive functions. In this thesis, by using network models such as artificial DNNs, we study the computational principle of the visual/auditory functions in the brain. We found that basic perceptual abilities observed in the brain – perceiving number of items in a visual scene; or to detect music from other sounds; can also emerge in DNN models, even without training about these functions. Our results suggest that both the process of generalization of sensory data from external worlds and the hard-wired structure of neural networks can provide the basis of innate perceptual functions in the brain.
우리의 뇌는 시각, 청각 등 감각 자극을 수용하여 다양한 지각 기능을 수행할 수 있는 선천적인 능력을 가지고 있다. 이러한 기능은 특정한 감각 정보에 선택적으로 반응하는 뉴런들에 의해 처리되는 것으로 알려져 있으나, 이러한 성질이 어떤 원리에 의해 나타나는지, 혹은 어떤 기능을 가지고 있는지는 명확하게 알려지지 않았다. 최근 인공 심층신경망이 사람과 유사한 수준의 지각/인지기능을 수행할 수 있음이 알려지면서, 인지기능의 계산 원리를 이해하는 새로운 테스트 베드로 활용될 가능성이 제시되고있다. 본 학위논문에서는 인공 심층신경망과 같은 네트워크 모델을 활용하여, 뇌에서 나타나는 시각/청각 인지기능의 발생에 대한 계산 원리를 탐구한다. 우리는 뇌에서 발견되는 시각 수량 인지기능이나 음악 인지 기능과 같은 기본적인 지각 기능이 인공신경망에서도 나타날 수 있음을 확인했으며, 심지어 이러한 기능에 대한 특별한 학습 없이도 나타날 수 있음을 확인했다. 이러한 결과는 자연 데이터의 일반화 과정, 신경망의 구조적 특성 등이 복합적으로 작용하여 선천적 인지기능의 기반을 구성할 수 있을 것을 제시한다.