목록GPT (3)
욤미의 개발일지

Ming Jin1∗ , Shiyu Wang2∗ , Lintao Ma2 , Zhixuan Chu2 , James Y. Zhang2 , Xiaoming Shi2 , Pin-Yu Chen3 , Yuxuan Liang6 , Yuan-Fang Li1 , Shirui Pan4† , Qingsong Wen5† 1 Monash University 2 Ant Group 3 IBM Research 4 Griffith University 5 Alibaba Group 6 The Hong Kong University of Science and Technology (Guangzhou) {ming.jin, yuanfang.li}@monash.edu, pin-yu.chen@ibm.com yuxliang@outlook.com, s.p..

Language Model Scaling Laws for LMs(OpenAI, 2022)에서 LM의 performance는 model size, dataset size, amount of compute가 커짐에 따라 향상됨을 증명했다. 대규모 말뭉치에서 사전학습된 언어 모델은 성능이 좋아지고 그 크기도 커졌다. → GPT 시리즈의 등장 Overview GPT-1 (Generative Pre-trained Transformer, 2018.06.11) Transformer의 디코더 부분만 사용하여 언어 생성 모델을 구성하며, 입력에 대한 출력의 확률을 계산한다. 비지도 사전학습을 통해 문맥을 이해하고, 지도 학습으로 미세조정(fine-tuning)하는 모델 GPT-2 (2019.02.14) GPT-1 보다 ..

Baolin Peng∗ , Chunyuan Li∗ , Pengcheng He∗ , Michel Galley, Jianfeng Gao Microsoft Research {bapeng,chunyl,penhe,mgalley,jfgao}@microsoft.com 2023.4 66회 인용 PaperGPT-4 모델을 활용하여 Self-Instruct로 데이터셋을 생성생성한 데이터셋을 활용하여 LLaMA를 Instruction TuningBackgroundGPT model Training본 논문에서는 Fine-tuning에 해당하는 Instruction Tuning을 핵심으로 다루고 있으며 RLHF 에 해당하는 Reward모델도 사용하고 있다. Instruction Tuningpre-train된 모델에 prompt..