The Beautiful Future
Adaboost 본문
1. Exponential Loss
Exponential 함수를 이용하여 Loss를 정의한다.
나중에 Loss를 최소화하는데 Exponential이 미분하기 좋기 때문이다.
함수는 x = -1일때 2.7 , x = 0 일때 1, x = 1 일때 0.37 이며
x가 커질 수록 작아진다. 예측결과와 GT가 같으면 적은 Loss을 틀리면 큰 Loss을 할당한다.
2. boosted classifier
아래와 같은 수식으로 표현된다.
어떤 샘플하나의 중요도가 처음 이었다면 중요도는 Loss 가 곱해지면서 아래와 같이 쓸 수 있다.
Exp Loss를 다시 쓰면
- Samples
- Desired outputs
- Initial weights
set to
- Error function
- Weak learners
For in
:
- Choose
- Find weak learner
that minimizes
, the weighted sum error for misclassified points
- Choose
- ln(x)
- Add to ensemble:
- Update weights:
for all i
- Renormalize
such that
- (Note: It can be shown that
at every step, which can simplify the calculation of the new weights.)

'알고리즘' 카테고리의 다른 글
Linear Classification2 (0) | 2016.05.02 |
---|---|
Linear Classification1 (0) | 2016.04.28 |
Levenberg-Marquardt algorithm (0) | 2016.04.18 |
Expectation Maximization Algorithm (0) | 2015.07.16 |
Gaussian Mixture Model( GMM ) (0) | 2015.07.14 |