PR-256: GPT-3 : Language Models are Few-Shot Learners

preview_player
Показать описание
PR12에서 이번에 발표한 논문은 GPT-3로 알려져 있는 'Language Models are Few-Shot Learners' 라는 논문입니다. 이 논문은 pretrain + finetune 하는 기존 방식에서 벗어나, pretrain을 엄청난 크기의 모델(기존 최대 대비 10배) 에하고 task description + few shot learning을 통해 좋은 결과를 낸 논문입니다.
Рекомендации по теме
Комментарии
Автор

ㅠ 시간 문제 때문에 skip한 것이 있어서 아쉽네요. 그래도 좋은 정리 감사합니다!

이수진-gtj
welcome to shbcf.ru