펀디멘탈 논문13 FM과 DNN을 함께 훈련시킨 모델!- DeepFM: A Factorization-Machine based Neural Network for CTR Prediction 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘DeepFM: A Factorization-Machine based Neural Network for CTR Prediction’입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' DeepFM: A Factorization-Machine based Neural Network for CTR Prediction’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/otjvQYbGzEI) 먼저 논문에 대해 정리한 내용입니다. 추천시스템에선 CTR을 최대화하기 위해서 유저 행동에 숨겨진 복잡한 상호관계인 feature interaction을 학습하는 게 정말 중요합니다. 그걸 통해서.. 2023. 2. 2. GCN의 결정에 대한 설명 가능성 방법- Explainability Methods for Graph Convolutional Neural Networks 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘Explainability Methods for Graph Convolutional Neural Networks’입니다. 이 논문은 2019년 CVPR에서 발표가 되었습니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' 중 ‘Explainability Methods for Graph Convolutional Neural Networks’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/DJfbq_Ifnj8) 발표 순서는 논문 순서와 동일하며 GCN의 설명 가능성에 대한 Motivation에 대해 소개를 하고 관련 연구로 Interpretability와 GCN에 대해 간략히 .. 2022. 11. 19. 시각화 툴의 필요성-Transformer Interpretability Beyond Attention Visualization 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘Transformer Interpretability Beyond Attention Visualization’입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' 중 ‘Transformer Interpretability Beyond Attention Visualization' 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/XCED5bd2WT0) Transformer 모델은 자연어 처리 분야에서 수많은 SOTA 네트워크에 쓰였으며 점차 컴퓨터 비전, 추천 시스템 등 다양한 분야에서도 쓰이기 시작하는 추세입니다. Transformer 네트워크의 중요성은 그 네트워크의 예측 과정.. 2022. 8. 18. GCN에 대한 새로운 LRP 기반 설명 방법 - GCN-LRP explanation exploring latent attention of graph convolutional networks 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘GCN-LRP explanation exploring latent attention of graph convolutional networks’입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' 중 ‘GCN-LRP’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/u_sy3UfFJsU) 저자가 왜 GCN-LRP 모델을 만들게 되었는지 그 Motivation에 대해 간단히 소개를 하고 관련 연구로 GCN-LRP에 대해 간략히 설명드리겠습니다. 그다음 기존 LRP를 단순히 GCN에 적용하였을 때 생기는 문제점들을 해결하기 위해 본 논문에서 제안하는 방법에 대해 설명을 한 뒤 성.. 2022. 8. 11. 이전 1 2 3 4 다음