Pre-training of Deep Bidirectional Transformers for Language Understanding 리뷰1 자연어 처리의 근본, BERT 논문 리뷰 오늘 소개해 드릴 논문은 ‘BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding’입니다. 콥스랩(COBS LAB)에서는 주요 논문 및 최신 논문을 지속적으로 소개해드리고 있습니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임’ 중 ‘BERT’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크: https://youtu.be/vo3cyr_8eDQ) BERT는 transformer를 활용한 language representation에 관한 논문입니다. BERT는 transfer-learning 방식으로 학습을 합니다. 즉, 대용량 unlabeled data로 모델을 pre-training을.. 2022. 5. 16. 이전 1 다음