| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | |||||
| 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| 10 | 11 | 12 | 13 | 14 | 15 | 16 |
| 17 | 18 | 19 | 20 | 21 | 22 | 23 |
| 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| 31 |
- 음성합성
- 강화학습
- 카트폴
- Reinforcement Learning
- TeachagleMachine
- App
- ReactNative
- 데이터분석
- TTS
- python
- 딥러닝
- coding
- Instagrame clone
- expo
- FirebaseV9
- 강화학습 기초
- selenium
- 사이드프로젝트
- JavaScript
- pandas
- 전국국밥
- React
- 앱개발
- DeepMind
- Ai
- Ros
- 머신러닝
- clone coding
- 클론코딩
- 논문리뷰
- Today
- Total
목록Sequential Recommendation (2)
qcoding
논문 Self-Attentive Sequential Recommendation 저자 Wang-Cheng Kang, Julian McAuley (UC San Diego) 학회/연도 ICDM 2018 arXiv 1808.09781 코드 official GitHub한 문단 요약SASRec은 사용자의 클릭·구매·시청 순서를 다음 아이템 추천 문제로 보고, RNN이나 CNN 대신 Transformer의 self-attention을 적용한 순차 추천 모델이다. Markov Chain처럼 최근 행동에 집중할 수 있으면서도, RNN처럼 긴 문맥을 볼 수 있다는 점이 핵심이다. Amazon Beauty/Games, Steam, MovieLens-1M 실험에서 SASRec은 PopRec, BPR, FMC/FPMC..
논문 BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from Transformer 저자 Fei Sun et al. 학회/연도 CIKM 2019 arXiv 1904.06690 코드 official GitHub한 문단 요약BERT4Rec은 사용자의 과거 클릭, 구매, 시청 기록을 왼쪽에서 오른쪽으로만 읽던 순차 추천 모델의 한계를 BERT식 양방향 Transformer로 푼 논문이다. 핵심은 미래 아이템을 직접 보게 되는 정보 누수를 막기 위해 일부 아이템을 [mask]로 가리고 주변 문맥으로 맞히는 Cloze objective를 추천에 적용한 점이다. Beauty, Steam, MovieLens 1M/2..