w02_Fundeamental_of_ML_정보이론
Learn the most classical methods of machine learning • Rule based approach • Classical statistics approach • Information theory appraoch
Rule based machine learning • How to find the specialized and the generalized rules • Why the rules are easily broken
Decision Tree • How to create a decision tree given a training dataset • Why the tree becomes a weak learner with a new dataset
Linear Regression • How to infer a parameter set from a training dataset • Why the feature engineering has its limit
1. Rule based machine learning
1.1 Find-S algorithm
- Candidate elimination algro.
- 문제점 : "we don’t live in the perfect world"
2. Decision Tree
통계 기법 활용 학습 방법
문제점 : 현재 데이터를 가지고는 잘 판단 하지만, 미래 데이터에 대하여서는 보장 할수 없음
The training dataset will not be a perfect sample of the
real world: Noise, Inconsistencies
이러한 한계로 선택트리가 실세계에서는 잘 사용 안됨
2.1 Entropy
- Random Variable이 얼마나 불확실성이 높은지/낮은지 평가 하는 지표
- Higher entropy means more uncertainty
- 공식 :
- 의 x는 동전던지기는 F,T/ 주사위는 1~6 을 의미, Discrete한 경우
- 만일 Continuos한 경우는 적분으로 변환하여 처리
2.2 Conditional Entropy
- We are interested in the entropy of the class given a feature variable
- Need to introduce a given condition in the entropy
- 일반적으로 Conditional Entropy가 적용되는 경우가 많음
- 공식 :
- 로 곱으로 이루어져 있음, 조건부 확률
- 로 가중치를 주고 있음
2.3 Information Gain
: A1을 Condition으로 주었을때 Y의 Entropy(불확실성)는 어떻게 되는가?
Information Gain =
- 원래 H(Y)정도의 값인데 attribute를 선택Condition, H(Y|A)하는냐에 따라 값이 변하는가(차이값)
3. Decision Tree 단점
오버피팅 문제 : 보유 데이터는 잘 맞지만, 새 데이터에는 정확성 보장 어려움