서지주요정보
FlowerFormer: empowering neural architecture encoding using a flow-aware graph transformer = 신경망 구조 인코딩을 위한 신경망 흐름을 고려한 그래프 트랜스포머
서명 / 저자 FlowerFormer: empowering neural architecture encoding using a flow-aware graph transformer = 신경망 구조 인코딩을 위한 신경망 흐름을 고려한 그래프 트랜스포머 / Dongyeong Hwang.
발행사항 [대전 : 한국과학기술원, 2024].
Online Access 원문보기 원문인쇄

소장정보

등록번호

8041894

소장위치/청구기호

학술문화관(도서관)2층 학위논문

MAI 24005

휴대폰 전송

도서상태

이용가능(대출불가)

사유안내

반납예정일

리뷰정보

초록정보

The success of a specific neural network architecture is closely tied to the dataset and task it tackles; there is no one-size-fits-all solution. Thus, considerable efforts have been made to quickly and accurately estimate the performances of neural architectures, without full training or evaluation, for given tasks and datasets. Neural architecture encoding has played a crucial role in the estimation, and graph-based methods, which treat an architecture as a graph, have shown prominent performance. For enhanced representation learning of neural architectures, we introduce FlowerFormer, a powerful graph transformer that incorporates the information flows within a neural architecture. FlowerFormer consists of two key components: (a) bidirectional asynchronous message passing, inspired by the flows; (b) global attention built on flow-based masking. Our extensive experiments demonstrate the superiority of FlowerFormer over existing neural encoding methods, and its effectiveness extends beyond computer vision models to include graph neural networks and auto speech recognition models

특정 신경망 구조의 성공 여부는 그것이 다루는 데이터셋과 테스크에 밀접하게 연결되어 있으며, 모든 경우에 잘 작동하는 신경망 구조는 존재하지 않는다. 따라서, 주어진 테스크와 데이터셋에 대해 전체적인 학습이나 평가 없이 신경망 구조의 성능을 신속하고 정확하게 추정하기 위한 많은 노력이 있었다. 신경망 구조 인코딩은 이러한 신경망 성능 예측에서 중요한 역할을 해왔으며, 신경망 구조를 그래프로 취급하는 그래프 기반 방법들이 두드러진 성능을 보여왔다. 신경망 구조에 대한 향상된 표현 학습을 위해, 본 연구에서 우리는 신경망 구조 내의 정보 흐름을 포함하는 강력한 그래프 트랜스포머 모델인 FlowerFormer를 제시한다. FlowerFormer는 두 가지 주요 구성 요소로 구성된다: (a) 흐름을 인식하는 양방향 비동기 메시지 전달; (b) 흐름 기반 마스킹에 기반한 전역 어텐션. 우리의 실험은 FlowerFormer가 기존 신경 구조 인코딩 방법들을 능가하는 우수성을 입증하며, 그 효과는 컴퓨터 비전 모델 구조의 인코딩을 넘어 그래프 신경망과 자동 음성 인식 모델을 포함한다.

서지기타정보

서지기타정보
청구기호 {MAI 24005
형태사항 iv, 25 p. : 삽도 ; 30 cm
언어 영어
일반주기 저자명의 한글표기 : 황동영
지도교수의 영문표기 : Kijung Shin
지도교수의 한글표기 : 신기정
Including appendix
학위논문 학위논문(석사) - 한국과학기술원 : 김재철AI대학원,
서지주기 References : p. 20-23
주제 Graph transformers
Graph neural networks
Neural architecture encoding
Neural architecture performance prediction
그래프 트랜스포머
그래프 신경망
신경망 구조 인코딩
신경망 성능 예측
QR CODE

책소개

전체보기

목차

전체보기

이 주제의 인기대출도서