As perceptrons, the generalization power of layered feed-forward neural network(MLP) on the variations in test data is important for practical use of the neural networks. For the analysis of these stabilities in the MLP, we changed the feed-forward of neural network as cascade of $φ^4$ field theory with corresponding field Lagrangian without losing any properties of the network. Using this well-known topological soliton solution of field theory model, the stability of neural network is interpreted as topological stability of kink-type soliton solutions of $φ^4$ field theory. An explicit example, a simple three-class recognition problem, is shown with their theoretical field Lagrangian for practical manner.
다층신경망네트워크는 감독훈련(supervised training)을 통하여 각 층의 가중치를 설정하고 나면, 샘플링에서는 존재하지 않는 작은 변이(variation)를 스스로 무시하여 추상화시키며, 이런 일반화(generalization)의 능력은 실제로 문자, 음성인식에 널리 이용되고 있다. 본 연구에서는 이러한 다중 신경망네트워크의 일반화 구조를 이해하기 위해 신경망의 계층구조를 물리적으로 잘 알려진 $φ^4$ 마당이론(field theory)의 계층구조로 바꾸어 보았으며, 이로써 잘 훈련된 신경망인식자(perceptron)의 특정입력에 대한 안정성을 마당이론의 위상적솔리톤해(topological soliton)의 안정성으로써 설명할 수 있었다.