This paper delves into the modeling and simulation of semiconductor devices through the utilization of machine learning.
We propose an approach leveraging machine learning to model device performance and physical characteristics based on semiconductor device parameters, subsequently employing these models for optimization and simulation.
To elaborate further, we employ Bayesian optimization methods to maximize the performance of a state-of-the-art 3-nanometer node nanosheet field-effect transistor within a five-dimensional design space.
Furthermore, through the application of physics-informed machine learning, we efficiently model and simulate the spatial physical attributes of nanowires, which represent the next-generation gate-all-around device.
This study introduces and proposes a novel methodology for effectively addressing the challenges of modeling increasingly complex semiconductor devices by harnessing the latest advancements in machine learning techniques.
본 논문에서는 머신러닝을 이용한 반도체 소자 모델링 및 시뮬레이션을 다루었다.
머신러닝을 이용해 반도체 소자 파라메터에 따른 소자 성능, 물리 특성 값을 모델링하여 최적화, 시뮬레이션 등에 활용하는 방안을 제시하였다.
좀 더 자세히 말하면, 베이지안 최적화 방법을 이용해 5차원의 설계 공간에서 최적의 3나노미터 노드 나노시트 전계 효과 트랜지스터의 성능을 극도로 개선하는 연구를 하였다.
또한, 물리 정보 머신러닝을 이용하여 차세대 게이트 올 어라운드 소자인 나노와이어의 공간 물리 값들을 데이터 효율적으로 모델링하여 시뮬레이션 하였다.
본 연구는 최신의 머신러닝 기법을 이용해 점점 더 복잡해지는 반도체 소자의 모델링을 효과적을 다루는 새로운 방법을 개발 및 제시하였다.