GPT-2
OpenAI가 개발한 초기 대규모 언어 모델로, Transformer의 디코더 구조를 활용하여 다음 토큰을 예측하는 방식으로 텍스트를 생성한다. 현대적인 LLM의 기본 구조를 갖추고 있어 학습 및 구현 원리를 공부하기 위한 표준 모델로 자주 활용된다.