728x90
반응형

2024/12/08 3

DS 이론 22- 나이브베이즈분류, 예제

https://sometipsfor.tistory.com/39 DS 실습 16- 나이브 베이즈- 사전 확률 및 추가 정보를 기반으로 사후 확률을 추론하는 통계적 방법인 베이즈 추정 기반 분류- 종속변수 각 범주의 등장 빈도인 사전확률(prior) 설정이 중요   ex) "이전까지 이러이러한 빈sometipsfor.tistory.com- Feature 들이 확률적으로 '독립'이라는 가정으로 확률 계산을 용이하게 함 - 베이즈 법칙 (확률)에 기반한 분류 기법2024.11.16 - [Data Science/이론] - DS 이론 2- 확률실험, 베이즈정리  ... 베이즈 법칙을 알면 나이브베이즈분류 이해가 쉬움베이즈 정리 - P(A) : 사전확률 - 사건 B가 일어나기 전 사건. A가 일어날 확률 (이미 알고..

Data Science/이론 2024.12.08

DS 이론 21- KNN 알고리즘

2024.12.07 - [Data Science/실습] - DS 실습 17- KNN(K-Nearest Neighbor) DS 실습 17- KNN(K-Nearest Neighbor)- 새로운 값은 기존의 데이터를 기준으로 가장 가까운 k개의 최근접 값을 기준으로 분류됨- k가 짝수되는 것은 피하도록- 과적합: k 가 1에 가까울수록 과소적합: k가 클수록 KNN 회귀(Regression)- 분sometipsfor.tistory.com kNN 알고리즘 - 특정 데이터를 k개의 인접한 요소를 기반으로 예측하는 지도학습 알고리즘   -> "가깝다"는 판단의 기준 필요 => distance  거리계산이 필요  - k 값이 1에 가까우면 과적합이 되며, 값이 커질수록 모델이 단순해지지만 과소적합이 되기에 적절한 k..

Data Science/이론 2024.12.08

DS 실습 18 - 의사결정나무 모델: 분류 및 회귀나무

분류 나무(Classification Tree)- 종속변수가 명목형인 경우 사용- 각 노드 분류 알고리즘은 이진 분류 시 Gini Index 기반의 CART(Classification And Regression Tree) 사용 회귀 나무(Regression Tree)- 종속변수가 연속형인 경우 사용- 각 노드 분류에는 평균, 표준편차를 활용하여 모델을 만들어 나가고 노드를 분류함 - 과적합 방지, 모델 단순화를 위해 Depth, Impurity 등 관련 설정 활용 from sklearn.tree import DecisionTreeClassifierfrom sklearn.tree import DecisionTreeRegressor sklearn - DecisionTreeClassifier()- 분류나무를 ..

Data Science/실습 2024.12.08
728x90
반응형