Knowledge Distillation
-
Knowledge Distillation 실전 가이드: 대형 LLM을 소형 모델로 압축하는 증류 기법과 DistilBERT, TinyLlama 사례 분석
대형 LLM을 소형 모델로 압축하는 Knowledge Distillation 기법을 실무 중심으로 해설합니다. DistilBERT, TinyLlama, Gemma 사례와 PyTorch 구현 코드를 통해 증류 원리와 실전 전략을 배워보세요.