Notice
Recent Posts
Recent Comments
Link
반응형
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | |||||
| 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| 10 | 11 | 12 | 13 | 14 | 15 | 16 |
| 17 | 18 | 19 | 20 | 21 | 22 | 23 |
| 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| 31 |
Tags
- 전국국밥
- pandas
- selenium
- App
- 논문리뷰
- FirebaseV9
- React
- 딥러닝
- Reinforcement Learning
- 강화학습 기초
- TTS
- 앱개발
- 음성합성
- 강화학습
- Instagrame clone
- TeachagleMachine
- Ros
- DeepMind
- expo
- ReactNative
- 사이드프로젝트
- 머신러닝
- 데이터분석
- python
- clone coding
- coding
- JavaScript
- Ai
- 카트폴
- 클론코딩
Archives
- Today
- Total
목록dynamic programming (1)
qcoding
[강화학습-4]정적 계획법 (Dynamic Programming)
4. 정적 계획법 (Dynamic Programming) “모든 것이 알려진(모형이 완전한) MDP라면, 최적 정책은 순환 방정식을 반복적으로 푸는 것만으로 얻을 수 있다.” 이 반복적 과정이 바로 정적 계획법(DP)이며, 두 핵심 루틴—정책 평가와 정책 개선—이 맞물려 돌아갑니다.4-1. 사전 지식 요약 필수 요소간단 메모앞서 다룬 섹션 MDP 구조$\langle\mathcal{S},\mathcal{A},P,R,\gamma\rangle$2-1 벨만 기대 방정식$V_\pi, Q_\pi$ 재귀식3-3 수축 사상 & 고정점$\gamma수학 배경 4-2. 정책 평가 (Policy Evaluation)주어진 정책 $\pi$에 대해 정확한 가치 $V_\pi$를 찾는 단계..
카테고리 없음
2025. 5. 28. 17:17