Transformer Interpretability Beyond Attention Visualization1 시각화 툴의 필요성-Transformer Interpretability Beyond Attention Visualization 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘Transformer Interpretability Beyond Attention Visualization’입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' 중 ‘Transformer Interpretability Beyond Attention Visualization' 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/XCED5bd2WT0) Transformer 모델은 자연어 처리 분야에서 수많은 SOTA 네트워크에 쓰였으며 점차 컴퓨터 비전, 추천 시스템 등 다양한 분야에서도 쓰이기 시작하는 추세입니다. Transformer 네트워크의 중요성은 그 네트워크의 예측 과정.. 2022. 8. 18. 이전 1 다음