서지주요정보
Searching for an activation function of CNN with a heuristic evolutionary algorithm = 휴리스틱 진화 알고리즘을 활용한 합성곱 신경망의 활성화 함수 탐색
서명 / 저자 Searching for an activation function of CNN with a heuristic evolutionary algorithm = 휴리스틱 진화 알고리즘을 활용한 합성곱 신경망의 활성화 함수 탐색 / Jonghyup Kim.
발행사항 [대전 : 한국과학기술원, 2021].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8037018

소장위치/청구기호

학술문화관(문화관) 보존서고

MIE 21006

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

All neural networks require a non-linear activation function to have effective expressive power. Then, the performance of the neural network is greatly affected by the selection of the activation function. Many researchers have attempted to find the most suitable activation function for neural networks. In this paper, we study the activation function that the convolutional neural network truly desires to have. We mainly design a novel function generator with well-known activation functions and several simple operators, and suggest the automated search method with heuristic evolutionary algorithm. Our search method found $LeakySwish$, a new activation function better than well-generalized baseline ReLU, and LeakySwish outperforms the existing activation functions under CIFAR datasets, CNN architectures, batch sizes, and data augmentation techniques. In addition, we propose two methods for parameterizing the activation function, and the shape of the learned activation function during the training process was analyzed and compared with LeakySwish. We identified the characteristics of the activation function that CNNs require, which LeakySwish also has. Through LeakySwish and the shape of the learned activation function, we expect that it will be able to propose a new activation function with a simple structure that is most suitable for CNNs.

모든 신경망은 효과적인 표현력을 갖기 위해 비선형 활성화 함수를 필요로 한다. 그래서, 활성화 함수의 선택에 따라 신경망의 성능이 매우 크게 영향을 받는다. 많은 연구자들은 신경망에 가장 적합한 활성화 함수를 찾기 위해 노력해왔다. 이 논문에서는 합성곱 신경망이 가져야 하는 활성화 함수에 대해 연구한다. 기존에 잘 알려진 활성화 함수를 기반으로 몇 가지 간단한 연산자를 통해 새로운 활성화 함수를 생성하는 함수 생성기를 설계하고, 휴리스틱 진화 알고리즘을 적용한 자동 탐색 기법을 제안한다. 우리의 탐색 기법은 ReLU보다 우수한 활성화 함수인 LeakySwish를 찾았고, LeakySwish는 CIFAR 데이터셋에 대해 다양한 합성곱 신경망, 배치 사이즈 및 데이터 증강 기법 하에서 기존 활성화 함수들의 성능을 능가한다. 또한, 활성화 함수를 매개 변수화하는 두 가지 방법론을 제안해 학습 과정에서 학습된 활성화 함수의 모양을 LeakySwish와 비교 분석한다. 이를 통해, 실제로 합성곱 신경망이 갖고자 하는 활성화 함수는 기존 활성화 함수들보다 LeakySwish가 가장 비슷하다는 것을 보였다. 우리는 LeakySwish와 학습된 활성화 함수의 모양을 토대로 합성곱 신경망에 가장 적합한 간단한 구조의 새로운 활성화 함수를 찾을 수 있을 것이라고 기대한다.

서지기타정보

서지기타정보
청구기호 {MIE 21006
형태사항 iv, 40 p. : 삽화 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 김종협
지도교수의 영문표기 : Se-young Yun
지도교수의 한글표기 : 윤세영
Including Appendix
학위논문 학위논문(석사) - 한국과학기술원 : 산업및시스템공학과,
서지주기 References : p. 36-38
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서