일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 앱개발
- redux
- 강화학습 기초
- 조코딩
- clone coding
- kaggle
- 강화학습
- 딥러닝
- App
- 클론코딩
- 크롤링
- ReactNative
- expo
- 데이터분석
- 정치인
- JavaScript
- 사이드프로젝트
- React
- TeachagleMachine
- Instagrame clone
- python
- Ros
- 머신러닝
- pandas
- FirebaseV9
- 리액트네이티브
- coding
- 전국국밥
- 카트폴
- selenium
- Today
- Total
목록머신러닝 딥러닝 (15)
qcoding
* WINDOW에서 매번 아나콘다를 통해서 텐서플로를 설치하지만, GPU가 잘 잡히지 않아서 고생했을 때 해당 방법으로 문제를 해결하여 정리함. ** 설치 순서 1) ANACONDA 설치 -> ANACONDA를 설치하면 PYTHON과 많은 패키지 들이 한번에 설치 되는데 아래와 같이 Python 3.11 로 설치가 된다. 그러나 현재 tensorflow에서 윈도우로 아래와 같이 2.10이 GPU를 지원하는 마지막 릴리스로 2.10을 설치하기 위해서 PYHTON 3.11 보다 낮은 버전이 필요하다. --> 그래서 ANACONDA 설치 후 가상환경을 생성하고 그 환경에 PYTHON 3.9 버전을 설치하고 텐서플로를 실행하는 순서로 진행된다. 2) ANACONDA 설치 후 가상환경 생성 https://www...
https://www.yes24.com/Product/Goods/120528346 캐글 메달리스트가 알려주는 캐글 노하우 - 예스24 캐글, ML/AI 실무자답게 접근하라!국내 캐글 실력자 8명이 직접 설명하는 캐글 컴페티션,어떻게 접근해 얼마나 노력하느냐에 따라 경험의 깊이가 달라진다.국내 캐글 실력자 8명이 모였다. 직접 www.yes24.com * 해당 책의 내용을 보고 실습을 진행함. ### keyword 매직피처 , 전처리 (KernelPCA, Gaussian Mixture Model, Hist) , 1단계 모델 - NuSVC, QuadraticDiscriminant Analysis, SVC, KNeighborsClassifier, LogisticRegression 2단계 모델 LightGBM ..
* 본실습은 딥러닝 생성모델인 GAN에 대한 간단한 실습이다. 향후에 GAN을 이용하여 시계열 데이터를 생성하는 실습을 진행예정으로 이를 준비하기 위해서 GAN의 간단한 코드를 구현해 보는 실습을 하였다. 해당 실습은 아래의 코드를 보고 진행하였다. https://machinelearningmastery.com/how-to-develop-a-generative-adversarial-network-for-a-1-dimensional-function-from-scratch-in-keras/ 이번 실습의 내용을 정리하면 y=x^2에 해당하는 data sample을 가지고 학습시켜 실제와 비슷한 분포를 지닌 가짜 sample을 만드는 것으로 epoch가 진행됨에 따라 실제 data 와 유사해 지는 것을 볼 수 ..
** 이번 실습은 앞선 글의 DDPG 이론을 Mountain Car 문제에 적용하는 실습이다. MountainCar 문제 중 Continuos Action Space를 갖는 문제에 대해 적용해 볼 것이다. 이번실습에서 진행하는 코드는 아래의 블로그를 참조하여 만들었으며, Mountain Car에 대한 문제는 이전 블로그를 참고하면 자세히 알 수 있다. https://pasus.tistory.com/138 Tensorflow2로 만든 DDPG 코드: Pendulum-v0 OpenAI Gym에서 제공하는 Pendulum-v0 환경을 대상으로 DDPG 알고리즘을 Tensorflow2 코드로 구현하였다. 학습결과는 다음과 같다. DDPG는 오프-폴리시 방법으로서 온-폴리시인 A2C에 비해서 데이터 효율이 pas..
* 이번에 살펴볼 내용은 DDPG에 대한 내용이다. DDPG (Deep Deterministic Policy Gradient)의 약어로 "확정적 Policy"를 사용하는 알고리즘이다. 이번에는 글을 2개로 나누어서 작성할 예정이며, 첫번째는 이론을 살펴보고 두번째로 실습을 진행하려고 한다. * 해당 내용은 아래의 유튜브를 보고 참고하여 작성하였습니다. 고려대학교 오승상 교수님의 유튜브인데 설명을 매우 잘해주셔서 이해가 잘되었습니다. 글에서 나오는 PPT는 교수님께서 올려주신 파일의 일부분을 사용하였습니다. https://www.youtube.com/playlist?list=PLvbUC2Zh5oJtYXow4jawpZJ2xBel6vGhC 오승상 강화학습 Deep Reinforcement Learning 고려..
** 이번 실습은 이전 A2C 실습 중 Continuos A2C를 사용했던 것을 A3C로 변경한 것이다. 기본적인 내용은 Continuos A2C 과 동일하며, A3C로 확장할 수 있게 Global Network와 Local Network 구조를 활용하였다. 2023.02.15 - [머신러닝 딥러닝] - [강화학습]Continuos A2C(연속적 A2C)_mountain Car [강화학습]Continuos A2C(연속적 A2C)_mountain Car * 이번 실습은 Continuos A2C 실습으로 아래의 Mountain Car Continuos 환경에 연속적 A2C알고리즘을 적용해보는 실습을 하였다. https://www.gymlibrary.dev/environments/classic_control/..
* 이번 실습은 A3C (Asynchronous Advantage Actor-Critic)에 대한 실습내용이다. 실습의 적용은 Cartpole과 Mountain Car에 적용하였으며, 결론적으로 Cartpole의 환경에서만 문제를 해결하였다. 현재까지 실습을 진행한 알고리즘을 정리하면 - > value_based (dqn) -> Policy_based (Reinforce / TD1step - A2C / TD1step - Continuos A2C ) 이며, Mountain Car 환경이 성공한 것은 off-policy value_based인 dqn 알고리즘이다. Mountain car와 같이 즉각적인 보상이 아닌 goal에 도착했을 때 큰 보상을 얻는 환경의 경우 on-policy알고리즘으로 action을..
* 이번 실습은 Continuos A2C 실습으로 아래의 Mountain Car Continuos 환경에 연속적 A2C알고리즘을 적용해보는 실습을 하였다. https://www.gymlibrary.dev/environments/classic_control/mountain_car_continuous/ Mountain Car Continuous - Gym Documentation Previous Cart Pole www.gymlibrary.dev 해당 실습의 코드는 아래의 책을 구매한 후 공부를 하며 진행하였으며, 편의를 위해 몇가지 부분을 추가하거나 수정하였다. https://wikibook.co.kr/reinforcement-learning/ 파이썬과 케라스로 배우는 강화학습: 내 손으로 직접 구현하는 ..