본문 바로가기

인공지능

Bert vs GPT

1. Bert (Bidirectional Encoder Representations from Transformers)

2. GPT(Generative Pre-trained Transformers)

 

3. Bert VS GPT 차이점

  1. 구조:
    • BERT는 기반으로 하는 아키텍처가 Transformer입니다. BERT는 양방향 인코더를 사용하여 문맥을 포착합니다.
    • GPT는 Transformer 아키텍처를 기반으로 하지만, 단방향 디코더를 사용하여 문맥을 포착합니다.
  2. 학습 방식:
    • BERT는 양방향(바이디렉셔널) 문맥을 학습하며, 이를 위해 'masked language modeling(MLM)'이라는 학습 방식을 사용합니다. 이 방식에서는 입력 문장의 일부 단어를 마스킹하고, 모델이 이 마스크된 단어를 예측하도록 학습됩니다.
    • GPT는 단방향(유니디렉셔널) 문맥을 학습하며, 이를 위해 'causal language modeling(CLM)'이라는 학습 방식을 사용합니다. 이 방식에서는 이전 단어들만을 기반으로 다음 단어를 예측하도록 학습됩니다.
  3. 문맥 이해:
    • BERT는 양방향으로 문맥을 이해하기 때문에, 주어진 문장의 앞뒤 문맥을 모두 고려할 수 있습니다. 이러한 특성 때문에 BERT는 특히 문장 내 단어의 의미를 정확하게 파악하는 데 뛰어납니다.
    • GPT는 단방향으로 문맥을 이해하므로, 주어진 문장의 이전 문맥만 고려할 수 있습니다. 이로 인해 문장 뒷부분에 중요한 정보가 있는 경우, GPT는 이를 고려하지 못할 수도 있습니다.
  4. 사용 사례:
    • BERT는 양방향 문맥을 포착하므로, 개체 인식(entity recognition), 개체 관계 추출(entity relation extraction), 감성 분석(sentiment analysis) 등 다양한 NLP 작업에서 뛰어난 성능을 보입니다.
    • GPT는 생성 작업(generative tasks)에 더 적합합니다. 예를 들어, 텍스트 생성, 요약, 기계 번역 등의 작업에서 GPT는 높은 성능을 발휘합니다.

두 모델 모두 사전 학습(pre-training)과정을 거쳐 기본 지식을 습득한 후, 다양한 자연어 처리 작업에 적용

'인공지능' 카테고리의 다른 글

할루시네이션(hallucination)  (0) 2023.05.11
Chat-GPT Plugin  (0) 2023.03.27
LLM(Large Language Model:거대 언어 모델)  (0) 2023.03.27
Regression vs Classification  (0) 2023.03.06
AI 필터링  (0) 2023.02.16