대규모 언어 모델, LLM

2023. 9. 3. 14:30AI/NLP

LLM ⓒshaip

LLM (Large Language Model)이란 무엇인가?

 

LLM (Large Language Model)은 최근 자연어 처리(NLP) 분야에서 주목받는 딥 러닝 기반의 모델입니다. 이 모델은 특히 텍스트 데이터를 처리하는 데 있어 뛰어난 성능을 보이며, 그 규모와 복잡성 때문에 '대규모'라는 이름이 붙여졌습니다. LLM은 Transformer 아키텍처를 기반으로 합니다. Transformer는 Attention 메커니즘을 활용하여 입력 데이터의 다양한 부분에 주목하며, 이를 통해 문장 내의 단어나 구문 간의 관계를 더욱 정밀하게 파악할 수 있습니다. 이러한 구조는 LLM이 주어진 콘텍스트를 깊게 이해하고, 그에 따라 적절한 응답을 생성하는 데 중요한 역할을 합니다.

 

LLM의 학습 과정은 일반적으로 두 단계로 이루어집니다. 첫 번째 단계는 사전 학습(pre-training)으로, 대규모의 텍스트 데이터셋에서 모델을 학습시킵니다. 이 과정에서 LLM은 다양한 언어 패턴, 문법, 지식 등을 습득합니다. 두 번째 단계는 미세 조정(fine-tuning)으로, 특정 작업에 맞게 모델을 추가 학습시킵니다. 이를 통해 모델은 일반적인 언어 지식과 특정 작업에 필요한 지식을 모두 활용하여 더욱 정확한 결과를 도출할 수 있습니다.

 

그러나 LLM도 완벽하지 않습니다. 학습 데이터에 포함된 편향이나 오류는 모델의 출력에도 그대로 반영될 수 있습니다. 따라서 데이터의 품질과 다양성은 LLM의 성능에 큰 영향을 미칩니다. 또한, 모델의 해석 가능성(interpretability) 문제도 연구의 주제로 떠오르고 있습니다.

최근에는 OpenAI의 GPT-3, GPT-4와 같은 대규모 모델들이 등장하며, LLM의 가능성과 한계에 대한 논의가 활발히 이루어지고 있습니다. 이러한 모델들은 챗봇, 검색 엔진, 문서 자동 생성, 코드 자동 완성 등 다양한 분야에서 활용되며, NLP 분야의 미래를 이끌어 나가고 있습니다.

 

LLM (Large Language Model) 모델 종류

 

  • GPT (Generative Pre-trained Transformer)
    • 개요: GPT는 Transformer 아키텍처를 기반으로 한 모델로, 사전 학습과 미세 조정의 두 단계로 학습됩니다.
    • 특징: GPT는 먼저 대규모 텍스트 데이터셋에서 사전 학습을 받아 일반적인 언어 지식을 습득하고, 이후 특정 작업에 대해 미세 조정을 받습니다.
    • 활용: GPT는 텍스트 생성, 질의 응답, 번역 등 다양한 자연어 처리 작업에 활용될 수 있습니다.
  • GPT-2
    • 개요: GPT의 두 번째 버전으로, 원래 모델보다 훨씬 큰 규모와 더 많은 데이터로 학습되었습니다.
    • 특징: GPT-2는 그 성능과 함께 무작정 텍스트를 생성하는 능력으로 주목받았습니다. 이로 인해 초기에는 모델의 공개가 제한되었으나, 후에 전체 모델이 공개되었습니다.
    • 활용: GPT-2는 다양한 자연어 처리 작업뿐만 아니라, 게임, 예술, 코드 작성 등의 분야에서도 활용되었습니다.
  • GPT-3
    • 개요: GPT 시리즈 중 가장 큰 모델로, 1750억 개의 파라미터를 가지고 있습니다.
    • 특징: GPT-3는 뛰어난 텍스트 생성 능력 외에도, 명시적인 미세 조정 없이도 다양한 작업을 수행할 수 있는 'few-shot learning' 능력을 보였습니다.
    • 활용: GPT-3는 챗봇, 코드 생성, 디자인, 게임, 음악 작성 등 다양한 분야에서 활용되고 있습니다.
  • GPT-4 (Generative Pre-trained Transformer 4)
    • 개요: OpenAI에서 개발된 GPT 시리즈의 최신 버전입니다.
    • 특징: GPT-4는 GPT-3에 이어 더 큰 규모와 더 많은 데이터로 학습되었습니다. Transformer 아키텍처를 기반으로 하며, 사전 학습과 미세 조정의 두 단계로 학습됩니다.
    • 활용: 다양한 자연어 처리 작업, 텍스트 생성, 질의 응답, 번역 등에 활용됩니다.
  • BERT (Bidirectional Encoder Representations from Transformers)
    • 개요: Google에서 개발된 모델로, 양방향 Transformer 인코더를 사용하여 텍스트를 표현합니다.
    • 특징: BERT는 주변 단어의 컨텍스트를 모두 고려하여 각 단어의 표현을 생성합니다. 이로 인해 문장 내의 단어 간 관계를 더욱 정확하게 파악할 수 있습니다.
    • 활용: 질의 응답, 감정 분석, 텍스트 분류 등 다양한 작업에 활용됩니다.
  • T5 (Text-to-Text Transfer Transformer)
    • 개요: Google에서 개발된 모델로, 모든 자연어 처리 작업을 텍스트 대 텍스트 변환 작업으로 간주합니다.
    • 특징: T5는 입력과 출력 모두 텍스트 형식을 사용하며, 다양한 작업을 동일한 아키텍처와 학습 방식으로 처리할 수 있습니다.
    • 활용: 텍스트 생성, 번역, 요약, 분류 등 다양한 작업에 활용됩니다.
  • RoBERTa (A Robustly Optimized BERT Pretraining Approach)
    • 개요: BERT 모델을 기반으로 최적화된 모델로, Facebook에서 개발되었습니다.
    • 특징: RoBERTa는 BERT의 학습 방식과 데이터 처리 방식을 개선하여 더 높은 성능을 달성합니다. 특히, 더 큰 데이터셋과 더 긴 학습 시간을 사용하며, 몇 가지 학습 전략을 변경하였습니다.
    • 활용: BERT와 유사하게 다양한 자연어 처리 작업에 활용됩니다.

 

LLM 최신 논문

 

  • Wider and Deeper LLM Networks are Fairer LLM Evaluators
    • 저자: Yongbin Li, Hongbo Xu, Fei Huang, Tingwen Liu, Yangyu Lv, Haiyang Yu, Bowen Yu, Xinghua Zhang
    • 발표일: 2023-08-03
    • 요약: LLM의 응답 품질을 측정하는 것은 어려운 작업이며, 특히 응답이 인간의 선호도와 일치하는지 평가하는 것이다. 이 논문에서는 LLM을 사용하여 평가를 수행하고 결과를 안정화하는 새로운 접근법을 제안한다.
    • 논문 링크
  • Judging LLM-as-a-judge with MT-Bench and Chatbot Arena
    • 저자: Ion Stoica, Joseph E. Gonzalez, Hao Zhang, Eric. P Xing 등
    • 발표일: 2023-06-09
    • 요약: LLM 기반 채팅 어시스턴트의 평가는 그들의 광범위한 능력과 기존 벤치마크의 부족함 때문에 도전적이다. 이를 해결하기 위해, 우리는 더 개방적인 질문에 대한 이러한 모델을 평가하기 위해 강력한 LLM을 판사로 사용하는 것을 탐구한다.
    • 논문 링크
  • RET-LLM: Towards a General Read-Write Memory for Large Language Models
    • 저자: Hinrich Schütze, Mohsen Fayyaz, Ayyoob Imani, Ali Modarressi
    • 발표일: 2023-05-23
    • 요약: 기존의 LLM은 전용 메모리 단위가 없어 다양한 작업을 위해 지식을 명시적으로 저장하고 검색하는 능력이 제한적이다. 이 논문에서는 LLM에 일반적인 쓰기-읽기 메모리 단위를 장착하는 새로운 프레임워크를 제안한다.
    • 논문 링크
  • Low-code LLM: Visual Programming over LLMs
    • 저자: Nan Duan, Jonathan Tien, Yan Xia, Ting Song 등
    • 발표일: 2023-04-17
    • 요약: LLM을 복잡한 작업에 효과적으로 활용하는 것은 종종 시간이 많이 소요되고 제어할 수 없는 프롬프트 엔지니어링 프로세스를 포함한다. 이 논문에서는 더 제어 가능하고 안정적인 응답을 얻기 위해 여섯 가지 간단한 로우코드 시각 프로그래밍 상호 작용을 포함하는 새로운 인간-LLM 상호 작용 프레임워크를 소개한다.
    • 논문 링크
  • OpenAGI: When LLM Meets Domain Experts
    • 저자: Yongfeng Zhang, Zelong Li, Shuyuan Xu, Juntao Tan 등
    • 발표일: 2023-04-10
    • 요약: 인간의 지능은 기본 기술을 결합하여 복잡한 작업을 해결하는 데 뛰어나다. 이 능력은 인공 지능(AI)에게 중요하며, AGI를 향한 연구에서 LLM과 도메인 전문가 모델의 통합을 제안한다.
    • 논문 링크