The emergence of new defect patterns in wafer bin maps (WBMs) has increased the need for the classification of such defect patterns with a limited number of WBMs, namely few-shot WBM classification, owing to the high cost of collection and annotation. Existing few-shot WBM classification algorithms mainly utilize meta-learning methods that leverage knowledge learned in several episodes. Meta-learning methods require a large amount of additional real WBMs, which can be unrealistic. To help train a network with a few real WBMs while avoiding this challenge, we propose to use simulated WBMs. In this process, we employ transfer learning, which is known to be simple and well-performing in few-shot learning. We further implement ensemble learning to solve the overfitting problem in transfer learning. Specifically, we apply transfer learning by pre-training a network with simulated WBMs and then fine-tuning it with real WBMs. We then apply ensemble learning by fine-tuning multiple sets of classification layers. A series of experiments on a real dataset demonstrate that our model compares favorably to widely used meta-learning methods in few-shot WBM classification. Additionally, we empirically verify that transfer learning and ensemble learning, the two most important yet simple components of our model, reduce the bias and variance of the learning algorithm under a few-shot scenario without a significant rise in training time.
데이터 수집과 주석에 소요되는 높은 비용으로 인해 웨이퍼 빈 맵에서 새로운 결함 패턴의 출현은 적은 학습 데이터로 이러한 결함 패턴을 분류하는 문제, 즉 소량 데이터 기반 웨이퍼 빈 맵 분류에 대한 필요성을 증가시켰다. 기존의 소량 데이터 기반 웨이퍼 빈 맵 분류 알고리즘은 주로 여러 에피소드로부터 학습한 지식을 활용하는 메타 학습을 이용했다. 메타 학습은 많은 양의 실제 웨이퍼 빈 맵을 추가로 필요로 하는데, 이는 비현실적일 수 있다. 이 문제를 피하면서 적은 양의 실제 웨이퍼 빈 맵으로 네트워크를 훈련하는 데 도움이 되도록 시뮬레이션 웨이퍼 빈 맵을 사용할 것을 제안한다. 이 과정에서, 우리는 소량 데이터 기반 학습에서 간단하고 좋은 성능을 내는 것으로 알려진 전이 학습을 사용한다. 전이학습에서의 과적합 문제를 해결하기 위해 앙상블 학습을 추가로 활용한다. 구체적으로, 시뮬레이션 웨이퍼 빈 맵으로 네트워크를 사전 훈련한 후에 실제 웨이퍼 빈 맵으로 미세 조정하는 방식으로 전이 학습을 적용한다. 또한 여러 개의 분류 계층을 미세 조정함으로써 앙상블 학습을 적용한다. 우리는 실제 데이터 세트에 대한 일련의 실험을 통해 제안 모델이 소량 데이터 기반 웨이퍼 빈 맵 분류에서 널리 사용되는 메타 학습 방법을 능가한다는 것을 보인다. 또한 제안 모델에서 핵심적이지만 간단한 구성 요소인 전이 학습 및 앙상블 학습이 훈련 시간의 큰 증가 없이 소량 데이터 시나리오에서 학습 알고리즘의 편향과 분산을 감소시킨다는 것을 실험적으로 입증한다.