자연어처리(NLP)를 찍먹해본 경험이 있다면 GPT와 BERT, 이 2개의 모델은 한 번쯤은 들어봤으리라 생각한다. GPT(Generative Pre-trained Transformer)와 BERT(Bidirectional Encoder Representations from Transformers)은 자연어처리에 사용되는 대표 모델이다. 나 또한 자연어처리에 관심이 있는 사람으로써, 이 2개의 모델을 들어보고 활용한 서비스도 여럿 봐왔다. *요새 이슈인 챗GPT도 대표적으로 GPT 모델을 활용하여 만들어진 AI이다. 하지만 이 2개의 모델 차이가 뭐냐라는 질문에는 대답하지 못할만큼 얕은 지식의 소유자였다. 그렇기 때문에 이번에 2가지 모델의 차이점을 알아보고 정리해보았다. 모델 구조 GPT는 트랜스포머 ..