Eat Study Love

먹고 공부하고 사랑하라

Data Science 19

8. Ensemble Methods and Boosting

https://eglife.tistory.com/55 7. Decision Trees https://eglife.tistory.com/54 6. Overfitting & Regularization https://eglife.tistory.com/48 5. Classification 2 (Bayes Classifiers) https://eglife.tistory.com/47 4. Classification 1 (Logistic Regression) https://eglife.tistory.com/46 3. Linear Regression 2 eglife.tistory.com 지난 시간 배웠던 의사결정나무를 Upgrade 해줄 수 있는 방법이다. 있는 Data를 좀 더 효율적으로 쓰기 위한 앙상블기법 여러 ..

7. Decision Trees

https://eglife.tistory.com/54 6. Overfitting & Regularization https://eglife.tistory.com/48 5. Classification 2 (Bayes Classifiers) https://eglife.tistory.com/47 4. Classification 1 (Logistic Regression) https://eglife.tistory.com/46 3. Linear Regression 2 https://eglife.tistory.com/45 2. Linear Regression https://eg eglife.tistory.com 의사결정 나무에 관한 공부내용이다. 사실 빅데이터분석기사나, 여러 가지 데이터사이언스 실습을 볼 때 가장 많..

6. Overfitting & Regularization

https://eglife.tistory.com/48 5. Classification 2 (Bayes Classifiers) https://eglife.tistory.com/47 4. Classification 1 (Logistic Regression) https://eglife.tistory.com/46 3. Linear Regression 2 https://eglife.tistory.com/45 2. Linear Regression https://eglife.tistory.com/44 1. Introduction to supervised learning 머신러 eglife.tistory.com 과적합 문제는 머신러닝 파트에서 너무나도 중요한 내용이다. 머신러닝 맛을 봤다는 사람이라면 과적합의 이유, ..

5. Classification 2 (Bayes Classifiers)

https://eglife.tistory.com/47 4. Classification 1 (Logistic Regression) https://eglife.tistory.com/46 3. Linear Regression 2 https://eglife.tistory.com/45 2. Linear Regression https://eglife.tistory.com/44 1. Introduction to supervised learning 머신러닝 공부의 시작은 지도학습으로 한다. 혼자 공부한 내용 eglife.tistory.com 두 번째 중요한 분류모델 베이즈모델에 대한 설명이다. 뭔가 얘는 머신러닝파트에서 수학적인 부분이 젤 많은 친구같다. 그도 그럴것이 베이즈정리 자체가 통계에서 기반된 것이라, 각종 ..

4. Classification 1 (Logistic Regression)

https://eglife.tistory.com/46 3. Linear Regression 2 https://eglife.tistory.com/45 2. Linear Regression https://eglife.tistory.com/44 1. Introduction to supervised learning 머신러닝 공부의 시작은 지도학습으로 한다. 혼자 공부한 내용을 한 데 모아 두고 두고 곱씹어보려고 eglife.tistory.com 드디어 분류로 들어온다. 이름은 회귀지만 분류모델인 로지스틱회귀모델 (Logitic Regression) Machine Learning의 선두주자격인 Google에서도 2010년대까지는 당사 머신러닝 프로젝트의 대부분 모델을 로지스틱회귀모델을 사용했다고 한다. 그만큼 대..

3. Linear Regression 2

https://eglife.tistory.com/45 2. Linear Regression https://eglife.tistory.com/44 1. Introduction to supervised learning 머신러닝 공부의 시작은 지도학습으로 한다. 혼자 공부한 내용을 한 데 모아 두고 두고 곱씹어보려고 개인 노트를 요렇게 공유해본다. 글씨 eglife.tistory.com 기초적이지만 너무나 중요해서 다루는 선형회귀 Linear Regression, 그 두 번째 시간 선형회귀에서 Maximum Likelihood Estimate을 쓰는데, Beta가 close form이 아니라 답을 구하기 어려운 상황에서 어떻게 해야하는 지에 대한 의문과 함께 시작한다. 검증 검증 검증 또 검증!! Cross ..

2. Linear Regression

https://eglife.tistory.com/44 1. Introduction to supervised learning 머신러닝 공부의 시작은 지도학습으로 한다. 혼자 공부한 내용을 한 데 모아 두고 두고 곱씹어보려고 개인 노트를 요렇게 공유해본다. 글씨가 엉망이긴해도.. 뭐 어차피 나는 알아볼 수 있으니 eglife.tistory.com 제일 기초적이면서도 중요한 Linear Regression, 선형회귀에 대한 내용이다. ㅇㅇ 저렇게 증명해도 틀린 것은 아닐 것이다. 용량이 좀만 넘어가도 파일첨부는 안 되는구만.. 그냥 노트 스크린샷보면서 복습해야겠다.

1. Introduction to supervised learning

머신러닝 공부의 시작은 지도학습으로 한다. 혼자 공부한 내용을 한 데 모아 두고 두고 곱씹어보려고 개인 노트를 요렇게 공유해본다. 글씨가 엉망이긴해도.. 뭐 어차피 나는 알아볼 수 있으니까 ㅎㅎ;; 세상이 많이 변했다. 라떼는 진짜 공책이랑 필통 들고 다녔는데, 요즈음은 요렇게 테블릿으로도 간편하게 필기를 할 수도 있고.. 격세지감이구만

Numpy / Pandas 수치형, 범주형 기술통계

1. Numpy로 array 만들기 일단 import numpy 때리고 import numpy as np np.array([1,2,3]) np.array([[1,2],[3,4]]) array([[1, 2], [3, 4]]) np.array([1,2,3,4]).reshape((2,2)) array([[1, 2], [3, 4]]) Numpy 인덱싱 / 슬라이싱 array.ndim = 차원의 수 array.shape = 모양 array.sum() / std() / var() 등등 numpy array 공식 많다. # array.dtype 데이터타입 # 그 외 다양한 함수 # In[ ]: nums = np.array([1,2,2,3]) nums # In[ ]: set(nums) # 집합 = 중복을 허용하지 않는..