데이터 소개 Video_Games_Sales_as_at_22_Dec_2016.csv - 각 파일의 칼럼은 아래와 같습니다. Name: 게임의 이름 Platform: 게임이 동작하는 콘솔 Year_of_Release: 발매 연도 Genre: 게임의 장르 Publisher: 게임의 유통사 NA_Sales: 북미 판매량 (Millions) EU_Sales: 유럽 연합 판매량 (Millions) JP_Sales: 일본 판매량 (Millions) Other_Sales: 기타 판매량 (아프리카, 일본 제외 아시아, 호주, EU 제외 유럽, 남미) (Millions) Global_Sales: 전국 판매량 Critic_Score: Metacritic 스태프 점수 Critic_Count: Critic_Score에 사용된..
데이터 셋 선정하기 Brazilian E-Commerce Public Dataset by Olist https://www.kaggle.com/datasets/olistbr/brazilian-ecommerce Brazilian E-Commerce Public Dataset by Olist 100,000 Orders with product, customer and reviews info www.kaggle.com 라이브러리 import pandas as pd import numpy as np import matplotlib.pyplot as plt import seaborn as sns %matplotlib inline 데이터 불러오기 customers_df = pd.read_csv('/Users/Deskt..
EDA 데이터 그 자체만으로부터 인사이트를 얻어내는 접근법으로 numpy, pandas 사용 분석의 목적과 변수를 확인하고, 데이터를 전체적으로 살펴보며 데이터의 개별 속성을 파악해야 합니다. EDA with Example - Titanic 분석의 목적과 변수 확인 살아남은 사람들은 어떤 특징을 가지고 있었을까? Exploratory Data Analysis 0. 라이브러리 준비 ## 라이브러리 불러오기 import numpy as np import pandas as pd import matplotlib.pyplot as plt import seaborn as sns %matplotlib inline ## 동일 경로에 "train.csv"가 있다면 ## 데이터 불러오기 titanic_df = pd.rea..
Step 1. 데이터셋 준비하기 !pip install geopandas !pip install pyshp !pip install shapely !pip install plotly-geo Looking in indexes: https://pypi.org/simple, https://us-python.pkg.dev/colab-wheels/public/simple/ Collecting geopandas Downloading geopandas-0.12.2-py3-none-any.whl (1.1 MB) ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 1.1/1.1 MB 13.4 MB/s eta 0:00:00 Requirement already satisfied: shapely>=1.7 ..
Step 1. 데이터셋 준비하기 import pandas as pd import numpy as np import matplotlib.pyplot as plt import seaborn as sns Colab Notebook에 Kaggle API 세팅하기 import os # os.environ을 이용하여 Kaggle API Username, Key 세팅하기 os.environ['KAGGLE_USERNAME'] = 'jhighllight' os.environ['KAGGLE_KEY'] = 'xxxxxxxxxxxxxxxxxxxxxx' 데이터 다운로드 및 압축 해제하기 데이터 출처: https://www.kaggle.com/aljarah/xAPI-Edu-Data # Linux 명령어로 Kaggle API를 이..
데이터 다운로드 # 데이터 다운로드 링크로 데이터를 코랩에 불러옵니다. !wget 'https://bit.ly/3i4n1QB' import zipfile with zipfile.ZipFile('3i4n1QB', 'r') as existing_zip: existing_zip.extractall('data') # 라이브러리 및 데이터 불러오기 import pandas as pd from sklearn.preprocessing import MinMaxScaler, OneHotEncoder, PolynomialFeatures from lightgbm import LGBMClassifier from xgboost import XGBClassifier from sklearn.ensemble import Random..
- Total
- Today
- Yesterday
- 프로그래머스
- ai
- 캐글
- 데이터분석
- Lv3
- 쿼리 테스트
- 태블로
- LV2
- nlp
- lv4
- Python
- 부스트코스
- Kaggle
- 파이썬
- 딥러닝
- 데이터사이언스
- ML
- sql 테스트
- 데이터 시각화
- API
- SQLD
- SQL
- EDA
- 인공지능
- 프로그래밍
- LV1
- 머신러닝
- 데이터 분석
- 알고리즘
- mysql
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |