Improving BERT Fine-Tuning via Self-Ensemble and Self-Distillation 리뷰1 BERT의 fine-tuning을 향상 시키는 방법, Improving BERT Fine-Tuning via Self-Ensemble and Self-Distillation 오늘 소개해 드릴 논문은 ‘Improving BERT Fine-Tuning via Self-Ensemble and Self-Distillation’입니다. 콥스랩(COBS LAB)에서는 주요 논문 및 최신 논문을 지속적으로 소개해드리고 있습니다. 해당 내용은 유투브 ‘딥러닝 논문읽기 모임’ 중 ‘Improving BERT Fine-Tuning via Self-Ensemble and Self-Distillation’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크: https://youtu.be/JI5kXF_OUkY) fine-tuning이라는 개념은 이전 포스팅 한 ‘BERT’와 ‘How transferable are features in deep neural network.. 2022. 5. 16. 이전 1 다음