본문 바로가기
  • CobsLab upgrades your company value by AI technology

인공지능 외주56

시각화 툴의 필요성-Transformer Interpretability Beyond Attention Visualization 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘Transformer Interpretability Beyond Attention Visualization’입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' 중 ‘Transformer Interpretability Beyond Attention Visualization' 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/XCED5bd2WT0) Transformer 모델은 자연어 처리 분야에서 수많은 SOTA 네트워크에 쓰였으며 점차 컴퓨터 비전, 추천 시스템 등 다양한 분야에서도 쓰이기 시작하는 추세입니다. Transformer 네트워크의 중요성은 그 네트워크의 예측 과정.. 2022. 8. 18.
DINO 효과-Self-Supervised Transformers for Unsupervised Object Discovery using Normalized Cut 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘Self-Supervised Transformers for Unsupervised Object Discovery using Normalized Cut’입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' 중 ‘Self-Supervised Transformers for Unsupervised Object Discovery using Normalized Cut' 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/JCEK5nD4MKM) 먼저 Self-Supervised에 대해서 말씀드리겠습니다. 자연어 처리에서의 Self-Supervised learning과 vision Trans.. 2022. 8. 16.
GCN에 대한 새로운 LRP 기반 설명 방법 - GCN-LRP explanation exploring latent attention of graph convolutional networks 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘GCN-LRP explanation exploring latent attention of graph convolutional networks’입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' 중 ‘GCN-LRP’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/u_sy3UfFJsU) 저자가 왜 GCN-LRP 모델을 만들게 되었는지 그 Motivation에 대해 간단히 소개를 하고 관련 연구로 GCN-LRP에 대해 간략히 설명드리겠습니다. 그다음 기존 LRP를 단순히 GCN에 적용하였을 때 생기는 문제점들을 해결하기 위해 본 논문에서 제안하는 방법에 대해 설명을 한 뒤 성.. 2022. 8. 11.
data augmentation의 새로운 관점- SimCSE:Simple Contrastive Learning of Sentence Embedding 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘SimCSE:Simple Contrastive Learning of Sentence Embedding’입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' 중 ‘SimCSE’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/RToEmUYyGO4) 먼저 이 해당 논문을 이해하기 위해서 필요한 background knowledge부터 말씀드리겠습니다. 세 가지의 background knowledge가 필요합니다. 하나는 Contrastive learning입니다. 요즘 NLP에서 굉장히 representation이 잘 되는 연구가 활발하게 진행되고 있는데요. Contrastiv.. 2022. 8. 5.