본문 바로가기
  • CobsLab upgrades your company value by AI technology

자연어 처리 논문22

신선한 키워드 추출 분석 모델!!- Back to the Basics:A Quantitative Analysis of Statistical and Graph-Based Term Weighting Schemes for Keyword Extraction 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘Back to the Basics: A Quantitative Analysis of Statistical and Graph-Based Term Weighting Schemes for Keyword Extraction'입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임'Back to the Basics'영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/YHxoNhCWtic) 오늘 발표할 논문은 2020년에 emnlp에서 발표된 Back to the Basics: A Quantitative Analysis of Statistical and Graph-Based Term Weigh.. 2023. 4. 7.
Calibrating Sequence Likelihood Improves Conditional Language Generation 논문 리뷰!! 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘Calibrating Sequence Likelihood Improves Conditional Language Generation’입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임'Calibrating Sequence Likelihood Improves Conditional Language Generation’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/yLifwXr3Q9k) 첫 번째로 배경을 통해 기존 framework의 한계와 이를 극복하기 위한 연구들을 소개하고 두 번째로 본 논문에서 제안한 framework의 동작방식을 설명드리겠습니다. 세 번째로 text G.. 2023. 3. 14.
ChatGpt의 오픈소스버전? Meta의 LLaMA: Open and Efficient Foundation Language Models 논문 리뷰! 라마 깃허브 : https://github.com/facebookresearch/llama 우리나라 포함, 대기업들이 초거대 AI 기술을 공개함과 동시에 폐쇄적으로 변해가는 느낌이 있었습니다. 몇 년 전만 하더라도 많은 비용을 투자한 모델이라도 오픈소스 문화를 위해 사전 학습된 모델을 공개를 했지만, 몇몇 모델들은 비용을 지불하고 사용하는 모습으로 바뀌어 가고 있었습니다. GPT 버전만 하더라도, GPT-3부터는 작은 스타트업은 서비스를 위한 fine tuning을 하기 위해서는 지속적으로 비용을 내는 구조로 다가갈 수밖에 없었습니다. 그러나 우리의 Face book은 Chat GPT( GPT 3.5 기반)로 많은 주목을 받는 Open AI를 비웃듯 오픈 소스 커뮤니티를 위해 GPT3보다 뛰어난 성능을 .. 2023. 2. 27.
Random sampling bias를 줄였다! -Debiased Contrastive learning of Unsupervised Sentence Representation 안녕하세요 콥스랩(COBS LAB)입니다. 오늘 소개해 드릴 논문은 ‘Debiased Contrastive learning of Unsupervised Sentence Representation'입니다. 해당 논문은 ACL 2022년에 Publish된 논문입니다. 해당 내용은 유튜브 ‘딥러닝 논문 읽기 모임'Debiased Contrastive learning of Unsupervised Sentence Representation’ 영상 스크립트를 편집한 내용으로, 영상으로도 확인하실 수 있습니다. (영상링크:https://youtu.be/SJUZFEE5ELw) 먼저 알아야 할 background 입니다. 첫 번째로는 sentence representation learning 입니다. 이 sentence.. 2023. 2. 24.