Papers Review
-
[논문리뷰-DQN] Deep Q-NetworkPapers Review 2024. 5. 9. 22:20
목차- 논문 : Playing Atari with Deep Reinforcement Learning (paper)- 핵심 내용 : 딥러닝 기반의 강화학습을 진행한다. 데이터를 랜덤하게 샘플링하는 방식과, Q-network 추가로 DQN 모델을 완성한다. 사실 정확하게 말하면 논문 리뷰라기 보다는, DQN이 어떤 알고리즘인지 백그라운드와 핵심 포인트를 리뷰한 글. 1. Reinforcement Learning일단 가장 먼저 강화학습이란 무엇인가?환경(Environment)과 상호작용하는 모델(Agent)를 학습시키는 것주어진 상태(State)에서 행동(Action)을 취하여 그에 상응하는 보상(Reward)를 받게 된다.최종적인 보상값을 최대화 하도록 행동을 강화한다.게임, 로보틱스, 자율주행 분야에서 ..
-
[논문리뷰-CDN] Empowering Long-tail Item Recommendation through Cross Decoupling Network (KDD 2023)Papers Review 2024. 3. 11. 22:29
목차 - 논문 : Empowering Long-tail Item Recommendation through Cross Decoupling Network (paper) - 모델 : long-tail problem 을 해결하기 위하여 item, user 각각 학습하는 two-tower 모델로 이루어져 있으며, 각 tower에서 데이터를 다시 decoupling 하여 학습한다. item 데이터에서는 unique한 정보를 학습하는 memorization expert와 공유 가능한 정보를 학습하는 generalization exeprt 로 decoupling하여 학습하며, user 데이터에서는 interaction의 long-tail distribution 을 그대로 학습하는 main branch와 re-balan..
-
[논문리뷰-BERT4Rec] Sequential Recommendation with BidirectionalEncoder Representations from TransformerPapers Review 2023. 11. 23. 21:24
목차 BERT나 self-attention의 구조는 이해한 것으로 가정. BERT를 추천시스템에 어떻게 적용하였는지, BERT와의 차이점은 무엇인지 등을 위주로 작성 BERT4Rec : Sequential Recommendation with BidirectionalEncoder Representations from Transformer BERT 논문 : BERT: Pre-training of Deep Bidirectional Transformers for Language understanding Transformer 논문 : Attention is all you need 1. Introduction 기존 RNN 기반의 Sequential한 모델의 성과를 인정하지만, 단점이 있다. 1) RNN 기반의 se..