반응형
Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
Tags
- 강화학습 기초
- 앱개발
- React
- clone coding
- 카트폴
- kaggle
- Reinforcement Learning
- Ros
- GYM
- 강화학습
- python
- TeachagleMachine
- redux
- ReactNative
- coding
- 딥러닝
- Instagrame clone
- 머신러닝
- 데이터분석
- 리액트네이티브
- 전국국밥
- 조코딩
- 사이드프로젝트
- expo
- JavaScript
- selenium
- App
- FirebaseV9
- pandas
- 클론코딩
Archives
- Today
- Total
목록dynamic programming (1)
qcoding
[강화학습-4]정적 계획법 (Dynamic Programming)
4. 정적 계획법 (Dynamic Programming) “모든 것이 알려진(모형이 완전한) MDP라면, 최적 정책은 순환 방정식을 반복적으로 푸는 것만으로 얻을 수 있다.” 이 반복적 과정이 바로 정적 계획법(DP)이며, 두 핵심 루틴—정책 평가와 정책 개선—이 맞물려 돌아갑니다.4-1. 사전 지식 요약 필수 요소간단 메모앞서 다룬 섹션 MDP 구조$\langle\mathcal{S},\mathcal{A},P,R,\gamma\rangle$2-1 벨만 기대 방정식$V_\pi, Q_\pi$ 재귀식3-3 수축 사상 & 고정점$\gamma수학 배경 4-2. 정책 평가 (Policy Evaluation)주어진 정책 $\pi$에 대해 정확한 가치 $V_\pi$를 찾는 단계..
카테고리 없음
2025. 5. 28. 17:17