일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- pandas
- 조코딩
- Ros
- 전국국밥
- 앱개발
- 강화학습 기초
- FirebaseV9
- coding
- 사이드프로젝트
- 리액트네이티브
- 강화학습
- TeachagleMachine
- redux
- clone coding
- expo
- 딥러닝
- 크롤링
- 머신러닝
- ReactNative
- App
- 카트폴
- python
- 데이터분석
- React
- kaggle
- 정치인
- Instagrame clone
- JavaScript
- 클론코딩
- selenium
- Today
- Total
목록python (6)
qcoding

# #mpg 데이터를 분석하여 데이터 분석실습하기 https://github.com/youngwoos/Doit_Python/tree/main/Data GitHub - youngwoos/Doit_Python: 저장소 저장소. Contribute to youngwoos/Doit_Python development by creating an account on GitHub. github.com 1) 데이터 가져오기 import pandas as pd import numpy as np #pandas 출력 제한설정하기 pd.set_option('display.max_rows',30) pd.set_option('display.max_columns',30) df=pd.read_csv('./mpg.csv') df 2) ..

## 미국 동북중부 데이터를 가지고 데이터 분석 실습 진행하기 https://github.com/youngwoos/Doit_Python GitHub - youngwoos/Doit_Python: 저장소 저장소. Contribute to youngwoos/Doit_Python development by creating an account on GitHub. github.com 1) 데이터의 특징 파악 ( Data는 위에 자료 활용) import pandas as pd import numpy as np df=pd.read_csv('./midwest.csv') df 데이터는 총 437개의 행과 28개의 열을 가지고 있으므로, 28개의 변수가 포함되어 있는 것을 확인할 수 있다. 변수의 속성을 확인하기 위해서 i..

안녕하세요! 이지스퍼블리싱에서 시행하는 서평이벤트에 당첨되어 "점프투 파이썬 라이브러리" 책을 받아 학습해보고 남기는 후기입니다! 1) Do it 시리즈 소개 -> 저는 Do it 시리즈 책을 3권정도 보유하고 있는데요. 구매를 하고 한참뒤에 네이버 스터디룸이 있는 것을 알게 되었습니다. 여기 카페에서는 자기주도 학습을 지원하기 위해서 책을 구매한후 공부단 을 등록하면 자신이 세운 계획을 스스로 잘 이수하고 인증을 한 완독자에 한하여 학습의 연장을 위해 책을 선물하는 지원프로그램을 수행하고 있습니다. 혼자서 공부를 할 경우에는 의지가 떨어지고 자신과의 약속을 지키기 어려운데 이지스퍼블리싱에서 지원하는 지원프로그램을 통해 학습도 하고 책도 선물받는 좋은 기회인 것 같습니다!! https://cafe.nav..

- 목적 -> 지난 글에서 python webscraping을 통해 만든 excel 파일를 DB형태로 사용하려면 또는 의 형태로 변경해야한다. 앞선 글에서 FireBase를 당장은 사용하지 않지만 후에 사용할 수도 있어서 FireStore를 사용해보았다. - 방법 -> 1) Python을 통한 excel to Json 변경 , 아래의 라이브러리 사용 import json from collections import OrderedDict from openpyxl import load_workbook 우선 파일 변경을 하기전 내가 원하는 json형태를 선정한다. 내가 생각한 data의 형태는 아래와 같이 key로 각 지역별 정보를 가져올 수 있고, value에는 Array [ ] ( = list ) 형태로 되..

1) 필요한 기능 2022.01.10 - [[사이드 프로젝트]App개발 - 전국 국밥 찾기] - 2) Python + Selenium + Beautiful Soup 통한 음식점 정보 웹크롤링 2) Python + Selenium + Beautiful Soup 통한 음식점 정보 웹크롤링 - 크롤링 사이트 확인 -> 음식점 정보를 얻기 위해서 여러 웹사이트를 통해서 크롤링이 가능하지만 평소 사용하는 DiningCode를 통해 음식점 정보를 얻기로 결정하였다. 검색어를 통해 지역별로 검 qcoding.tistory.com -> 앞에서 구한 프로젝트에서 크롤링을 하고 나면 아래와 같은 형식의 엑셀파일이 생성된다. 이 때 음식점의 주소를 얻게 되는 데, 지도상에 표시를 하려면 위도 / 경도의 지리적인 정보가 필요..

- 크롤링 사이트 확인 -> 음식점 정보를 얻기 위해서 여러 웹사이트를 통해서 크롤링이 가능하지만 평소 사용하는 DiningCode를 통해 음식점 정보를 얻기로 결정하였다. 검색어를 통해 지역별로 검색을 통해서 크롤링을 하여 정보를 가져오려고 한다. https://www.diningcode.com/list.php?query=%EC%84%9C%EC%9A%B8%20%EA%B5%AD%EB%B0%A5 '서울 국밥' 빅데이터 맛집 순위 Top100 - 다이닝코드 '서울 국밥' 맛집 애성회관 한우곰탕(곰탕, ★4.4), 중앙해장(해장국, ★4.3), 소문난 성수 감자탕(감자탕, ★4.1) 등 4,618곳의 전체 순위,식당정보,방문자리뷰,사 www.diningcode.com 우선 사이트에 들어가보면 왼쪽에 보이는 것..