서지주요정보
Training neural network through learning the derivative of loss function = 손실 함수의 도함수의 학습을 통한 인공신경망 학습
서명 / 저자 Training neural network through learning the derivative of loss function = 손실 함수의 도함수의 학습을 통한 인공신경망 학습 / Ji-Hoon Hyun.
발행사항 [대전 : 한국과학기술원, 2024].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8042265

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MCS 24025

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

Recent studies and applications in machine learning shows that neural network using gradient descent-based methods suits the need in many cases. Especially, there have been many researches which talks about the importance of choosing a loss function, when using such methods. While there also have been studies which accepted the concept of meta-learning and substituted the loss function with a computational graph or a neural network, they didn’t question about the necessity of the loss function if they were to be replaced. This paper first looks the structural properties of neural networks. Also, the paper rethinks the role of loss function in neural networks, then gives an idea and method of learning the derivative of the loss function, and finally shows some experimental results on regression.

최근 경사하강법을 이용한 인공신경망에 대한 연구와 실제 응용이 활발하다. 특히 경사하강법에 기반한 인공 신경망의 학습을 진행할 때 손실 함수의 중요성에 대한 논의는 계속되어왔다. 최근 몇몇 연구 중에는 메타 학습을 이용하여 손실함수를 학습이 가능한 변형을 주기도 한다. 하지만 이들은 손실함수를 대체하면서도, 손실 함수가 실제로 필요한지에 대한 의문을 제기하지는 않았다. 이 논문에서는 먼저 인공신경망의 구조에 대해 다시 돌아본다. 또한 인공신경망에서 손실 함수의 역할을 신경망으로 대체한 뒤, 이를 사용하여 회귀 문제를 접근해본다.

서지기타정보

서지기타정보
청구기호 {MCS 24025
형태사항 iii, 15 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 현지훈
지도교수의 영문표기 : Sunghee Choi
지도교수의 한글표기 : 최성희
Including appendix
학위논문 학위논문(석사) - 한국과학기술원 : 전산학부,
서지주기 References : p. 13
주제 Meta learning
Optimization
Gradient descent
Deep learning
Neural network
메타 학습
최적화
경사하강법
딥러닝
인공 신경망
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서