목록알고리즘 (15)
The Beautiful Future
R. I. Hartley and P. Sturm. Triangulation. 1997. A QCQP Approach to Triangulation. ECCV, 2012. L ∞ minimization in geo-metric reconstruction problems. CVPR, 2004. A practical algorithm for L ∞ triangulation with out-liers. CVPR, 2007. A fast optimal algorithm for L 2 trian-gulation. ACCV, 2007. Fast algorithms for L ∞problems in multiview geometry. CVPR, 2008. Outlier removal using duality. CVPR..
이Non-Photorealistic Computer Graphics 책 해석 연필심 : core , lead흑연(graphite) 또는 왁스(wax) 또는 점토(clay)의 혼합물이다.흑연은 마크를 생성한다.왁스는 윤활류 역활을 한다.점토는 함께 묶어주는 역할을 한다.왁스는 거의 5%로 혼합되는 비율이 정해져있다.흑연과 점토의 양에 따라 연필심의 강도가 정해진다.이 양에 따라 9H 부터 8B까지 나눠진다.H 는 Hard, B는 Black을 의미하고 뒤에 숫자는 강도를 나타낸다. 연필이 모델링 되었지만 종이 모델링은 더하다. 무게와 질감이 매우 다양하기때문에 종이 두께는 grams per square inch (gsi)로 측정된다. 48 gsi에서 300 gsi 까지.그냥 종이와 스케치한 종이를 현미경으로..
인터폴레이션 정리 잘 된 싸이트http://paulbourke.net/miscellaneous/interpolation/ 책Hughes/Computer Graphics 예전부터 B-spline을 이해하려 했지만 명쾌하게 정리해 놓은 곳을 못 찾았다. 내가 말하는 명쾌함이란 수학적 정리와 더불어 직관적인 이해가 설명되는 것이다. 그나마 가장 잘 정리되는 곳이 Wolfram MathWorld인 것 같다. http://mathworld.wolfram.com/B-Spline.html B-spline을 공부하면서 가장 이해하기 어려웠던 부분은 knot에 대한 개념이었다. 내가 이해한 knot은 곡선의 시작과 끝을 0부터 1까지라고 볼때, 곡선을 나누눈 지점이다. 고로 knot은 0부터 1사이의 값을 가진다. kn..
Conditional Random Field(CRF) 가 뭘까? 0. 도움을 받은 자료들 [1] http://www.lsi.upc.edu/~aquattoni/AllMyPapers/crf_tutorial_talk.pdf 1. 일단 어떤 문제에 적용되는지 살펴보자. ( 차근 차근 접근해 보자 )- 일반적으로 시퀀스데이터로 부터 시퀀스를 예측하는데 사용된다.- 순서가 있는 또는 한개가 아닌 여러개의 데이터 묶음에 적용 될수 있겠다.- 여기서 순서는 시간적 또는 공간적 등과 같은 순서로 생각할 수 있겠다.- 아래와 같은 문제를 예로 들 수 있겠다.from [1] 2. CRF은 당연히 확률 모델이다.( 누가 이걸 모르나... )- 이름에 Conditional 이 들어간 이유는 조건부 확률 분포 모델이 사용되기때문..
- 3d https://elonen.iki.fi/code/tpsdemo/ https://www.slideshare.net/potaters/medical-image-computing-bmva-summer-school-201482page 논문http://user.engineering.uiowa.edu/~aip/papers/bookstein-89.pdf 맵랩 2dhttps://kr.mathworks.com/matlabcentral/fileexchange/53828-rbf-or-thin-plate-splines-image-warping맵랩 3dhttps://kr.mathworks.com/matlabcentral/fileexchange/53867-3d-point-set-warping-by-thin-plate-rb..
참조 : 숙명 여대 보간법.ppt 5장 1. Spline 보간법이란?주어진 점들 사이를 함수의 구간으로 정의하고 이 사이를 저차 다항식으로 연결하는 방법.구간 연결 다항식 ~ 스플라인 함수 2. 장단점 - 일반적으로 완만하게 보간하지만 특정구역에서 급격히 변하는 경우도 있다.- 국부적으로 급격히 변화하는 함수에 우수한 근사값을 제공한다. 3. 조건주어진 구간 [a, b]가 와 같이 n-1개의 소구간 으로 이루어졌을 때 차수가 k인 spline함수 s(x)는 다음 조건을 만족해야한다.- s(x)는 소구간에서 k차 이하의 다항식으로 표현된다.- s(x), s'(x), s''(x),..등의 도함수들은 구간 [a, b]에서 연속이어야 한다.위 두 조건을 만족하는 최소의 차수는 3차로서, 모든 소구간에서 3차 다..
1. Score Function 2. Loss function
이미지를 벡터로 생각하고 출력을 클래스 레이블 벡터로 생각해라. bias를 W의 마지막 열에 추가하면 아래와 같이 된다.W의 각 행은 xi와 내적되어 class score를 계산하며 유사도로 생각 할 수 있다.W을 학습하기 위해 Loss function 다른 말로는 cost function, objective function을 정의하고 최소화하는 W을 학습해야한다. Losss는 학습 모델과 label의 함수이다.아래와 같이 j번째 클래스의 점수가 조금이라도 높다면 분류를 잘 못하게 된다.즉 아래와 같이 0 보다 작은 경우 제대로 분류하게 된다.즉 0보다 작다면 Loss가 없다고 볼 수 있으며 0보다 큰 경우는 줄여야 할 Loss이다.Hinge Loss솔직히 말해서 0보다 더 작은 수보다 작으면 비슷한게 ..
1. Exponential LossExponential 함수를 이용하여 Loss를 정의한다.나중에 Loss를 최소화하는데 Exponential이 미분하기 좋기 때문이다.함수는 x = -1일때 2.7 , x = 0 일때 1, x = 1 일때 0.37 이며 x가 커질 수록 작아진다. 예측결과와 GT가 같으면 적은 Loss을 틀리면 큰 Loss을 할당한다. 2. boosted classifier아래와 같은 수식으로 표현된다.어떤 샘플하나의 중요도가 처음 이었다면 중요도는 Loss 가 곱해지면서 아래와 같이 쓸 수 있다.Exp Loss를 다시 쓰면 Samples Desired outputs Initial weights set to Error function Weak learners For in :Choose :..
The Levenberg-Marquardt algorithm(LMA), also known as the damped least-squares(DLS) method, is used to solve non-linear least squares problems. The LMA finds only a local minimum, which is not necessarily the global minimum. The LMA interpolates between the Gauss-Newton algorithm(GNA) and the method of gradient descent. The LMA is more robust than the GNA, which means that in many cases it finds..
1. Likelihood Function 통계학에서 EM 알고리즘은 통계적인 모델의 매개변수를 maximum likelihood 또는 maximum a posteriori 을 이용해 예측하는 반복적인 방법이다. 통계적모델은 관측되지 않은 laten variable에 종속적이다. EM 반복은 expectation과 maximization을 반복하는데 expectation은 현재의 예측된 모델 매개변수를 이용해서 평가된 log-likelihood의 기대치를 위한 함수를 생성한다, maximization은 expectation에서 생성된 log-likelyhood을 최대화하는 통계모델의 매개변수를 계산한다. 관측된 데이터 X을 생성한 통계모델, 관측되지 않은 latent data Z, 통계모델의 알아내야 할 ..
0. GMM을 이해하기 위해 필요한 선행지식- 베이지안 룰- 미분( 함수, 매트릭스 )- 조건부 최적화- K-means clustering- EM 알고리즘 1. GMM 개념언떤 데이터의 확률 분포를 여러개의 가우시안함수를 기저(Component distribution)로하여 근사화하는 것이다. 2. GMM 모델 공식화 K개의 가우시안의 가중치 합으로 확률 분포를 나타낼 수 있다.화이의 합은 1이여야하며 각 화이는 0보다 크고 1보다 작아야한다. 3. GMM 문제 풀이 공식화(Objective Formulation)주어진 데이터 X로 부터 가우시안의 평균, 분산, 혼합계수(mixing coefficient)를 구해야 된다. 아래의 조건부 확률을 최대로 하는 매개변수를 찾아야한다. 각 샘플xi은 독립이다.위..
칼만 필터의 핵심은 정보 유합(information fusion)이다.아래 그림과 같이 자동차가 Xt1에서 Xt2로 이동했다고 하자.그리고 우리가 궁금한 것이 자동차의 Xt2위치 값이라고 하자.Xt2의 위치를 어떻게 측정 할 수 있을까 ? 여러가지 방법이 있을 것이다. 첫번째 방법 자동차가 Xt1에 있을때의 위치 Xt1과 속도 v와 시간 t1, t2를 알고 있다고 가정하면 Xt2 = Xt1 + v*( t2 - t1 )의 공식으로 Xt2의 위치를 예측 할 수있다.이 방법은 이동하는 사이에 속도 v가 변하지 않고 자동차가 좌우로 흔들리지도 않아야 정확히 맞을 것이다. 이렇게 완벽한 경우는 없고 오차가 분명히 있으므로 이 방법은 오차를 가지고 있다고 볼 수 있다.두번째 방법영상처리를 통해서 Xt2의 위치를 측..
Generalized Delta RuleError back-propagation algorithmMulti-start