인공지능 강의50 GTRANS-Grouping and Fusing Transformer Layers for Neural Machine Translation 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘GTRANS-Grouping and Fusing Transformer Layers for Neural Machine Translation'입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' 중 ‘GTRANS-Grouping and Fusing Transformer Layers for Neural Machine Translation’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/DgqnbETZNZw) 논문요약부터 간단하게 보여 드리겠습니다. 논문은 트랜스포머 모델의 Multi level layer의 어떤 정보들을 활용해서 fusion 방식을 통해서 그 정보를 잘 취합해서.. 2023. 1. 13. An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale’입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' 중 ‘An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/NjJXGRDzsYk) Paper with Cdoe에 리더보드를 보면 최근 detection task에서 Transformer 기반의 모델들이 SOTA를 달성하고 있는 것을 알 수 있습니다. 이러한 수많은 .. 2023. 1. 9. Numpy 기초 (2) - 배열 인덱싱 및 슬라이싱, 다양한 함수들 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해드릴 주제는 Numpy입니다. 저번시간에는 배열 데이터를 다룰 수 있는 파이썬 라이브러리인 넘파이(Numpy)의 개념과 기본 배열 생성에 대해 알아보았습니다. 이번 시간에는 배열 인덱싱 및 슬라이싱, 다양한 함수들에 대해서 알아보도록 하겠습니다. 목차 배열 인덱싱 및 슬라이싱 다양한 함수 배열 인덱싱 기본적인 인덱싱은 Python 리스트와 매우 유사합니다. 인덱싱은 0부터 시작합니다. data라는 array가 있을 때, data [1]와 같이 특정한 인덱스를 명시할 수도 있고, data [0:2]과 같이 범위 형태의 인덱스를 명시할 수도 있습니다. data [:]의 경우, 해당 array의 전체 성분을 모두 선택한 결과에 해당합니다. data = np.. 2023. 1. 4. MetaFormer is Actually What You Need for Vision 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘MetaFormer is Actually What You Need for Vision’입니다. 해당 논문은 2022년 CVPR에서 Oral presentation에 선정된 논문입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임' 중 ‘MetaFormer is Actually What You Need for Vision’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/ThCkRzh9Ohw) 오늘 발표드리려고 하는 MetaFormer 논문에 대해서 간략하게 요약을 해드리고 시작하겠습니다. 간단하게 표현을 하면은 일반화된 트랜스포머 구조 정도로 이해해 주시면 될 거 같습니다. .. 2023. 1. 2. 이전 1 2 3 4 5 6 7 8 ··· 13 다음