목록수학 (16)
The Beautiful Future

참고자료: 패턴인식 (오일석) terms probability, random variable, probability density function, conditional probability, joint probability marginal probability, prior probability, likelihood, posterior probability, bayes rule, confidence. probability이란 어떤 사건들의 집합을 정의하기에 따라서 다라진다. 각 사건들은 probability를 가지고 있다. probability는 0보다 크고 모든 경우의 합은 1 이다. 1. 동전 던지기 -> 앞면, 뒷면 -> 0.5, 0.5 2. 주사위 던지기 -> 1, 2, 3, 4, 5, 6 -> ..
이미지에 한점이 사영되는 과정 월드좌표계에서 카메라 좌표계로 \( t_{x} = o_{x}^{c} - o_{x}^{w} \) \( X^{c} = R(X^{w} - t_{x}) \) 원근 변환 \( X^{p} = X^{c}/Z^{c} \) 이미지플랜으로 사영 \( x = fX^{p} + c_{x} \) \( y = fY^{p} + c_{y} \) Intrinsic parameters, focal length 와 center of image를 찾는 방법 카메라 코디네이트와 월드 코디네이트가 일치 하고 3D point와 project된 2D point를 알고있을때 \( x:X = f:Z \\ Xf = xZ \\ x = \frac{f}{Z}X + c_{x} \\ xZ = fX + c_{x}Z \) # 2D po..
perspective transform = 시점 변환 , 즉, 시점에 따른 변환이라고 볼 수 있겠다.시점에 따라서 멀리 있는 사물은 작아보이고 가까이있는 사물은 커보이는 원리이다.핀홀모델을 살펴보면 가장 직관적으로 이해하기 쉽다.아래 그림에서 Q가 q의 위치에 투영되었지만 q와 Q사이 직선위에 어떤 점이라도 q에 투영된다.이런 원리를 homogeneity라고 한다. 즉, 선형방정식을 만족시키는 해가 하나가 아니라는 것이다.만약에 Q가 광축을 따라 원점 O로 부터 멀어지면 q의 위치는 더 아래로 내려가면서 작아지는효과가 나타난다.위키의 내용을 정리해 보면 아래와 같다.https://en.wikipedia.org/wiki/3D_projection위에서 q와 Q는 월드좌표계로 볼 수 있다. -> 카메라 기준의..
https://en.wikipedia.org/wiki/Rotation_formalisms_in_three_dimensions#Conversion_formulae_between_formalisms
1. 2D shape 과 3D model의 mean shape 사이의 닮음변환(scale, Rotation, Translation)을 구한다.2. mean shape을 2D shape으로 닮은변환 후 z 값만 2D shape에 추가한다. -> 2Dz shape.while3. 2Dz shape을 3D mean shape으로 닮음변환 한다.4. ShapeParam = Basis*(2Dz shape -mean shape ) , 두 shape의 차이를 Basis에 투영한다.5. 3Drecon = mean shape + Basis*ShapeParam, 투영된 값을 다시 복원한다.6. sR(:,1:2)*2D shape +T와 3Drecon의 차를 -sR(:,3)과 내적하여 z을 갱신한다.7. 2D shape + z..
http://kr.mathworks.com/company/newsletters/articles/optimization-using-symbolic-derivatives.html
참고블로그 : http://nghiaho.com/?page_id=671논문 : Estimating 3-D rigid body transformations: a comparison of four major algorithms논문은 안 읽어 봄.. Covariance matrix를 SVD해서 s,R,t을 찾는 방법.(프로그램 분석)1. A와 B의 무게중심을 각각 구한다.2. 무게중심을 제거하면서 Cov(A,A) = Caa를 구한다.3. 각각의 무게중심을 제거하면서 A와 B의 공분산 Cov(A,B) = Cab 를 구한다.4. SVD( Cab) = UWVt5. R = VUt = (UVt)t 이다.6. s = trace(Cbb)/trace(Caa) 인데 Cbb = VWVt = VUtUWVt 이므로 Cbb = RC..
Ordinary Least Square Method(OLS) Ridge Regression Ridge Regression은 OLS에 L2 Regularization이 합쳐진 것이다.기본적인 Regularizaion의 좋은 점은 A의 모든 원소가 골구루 문제를 최소화하는데 기여하게 되는 것이다. 즉, 이를 unbias 되었다라고 한다. OLS는 모든 Y와 X에 대해서 최적으로 에러가 최소가 되게 하지만 Ridge Regression은 최적 최소지점을 비겨나간다.이는 가 singular한 경우를 보조하게 된다.singular한 경우는 학습데이터가 모자란경우(underdetermined)나 학습데이터에 비해 모델이 굉장히 복잡한 경우(overfitting)이다.
m개의 x와 y가 있을때 W를 구하는 문제이다.문제를 수식으로 풀어써보면 아래와 같다. 원래 m개있던 샘플이 r개가 늘어났다. r개가 늘어남에 따라 X^tX와 X^tY의 변화를 살펴보면 아래와 같다.추가된 r부분만 gram matrix을 만들어서 더해주면 된다.이제 X^tX의 역함수 구하는 부분을 자세히 살펴보면 아래와 같다.woodbury formula을 사용하면 추가되기전 m개의 샘플로 이미 구해진 V(m)을 그대로 사용 할 수 있다.샘플이 추가되어 업데이트 할 때는 U을 계산할때만 역행렬을 구하야 한다.그리고 최종 목표인 W(m+r)의 계산도 정리를 해보면 W(m)이 중복되서 나오는 것을 알 수 있다.정리를 해보면 기존 V(m)과 W(m)을 이용해서 r개의 추가 샘플에 대해서 V(m+r)과 W(m+..
https://en.wikipedia.org/wiki/Positive-definite_matrix#Negative-definite.2C_semidefinite_and_indefinite_matrices- Positive definiteM : symmetric n x n real matirxz : non-zero column vector of n real numbers을 만족하는 경우. M : Hermitian matrix : symmetric matrix을 복소수로 확장된 개념.
#include "opencv.hpp"#include #include #define _USE_MATH_DEFINES#include int main(int argc, char* argv[]){cv::Mat mSineWave;cv::Mat mSineWaveTest;cv::Mat mShow;cv::Mat mShowReconstrction; mSineWave.create(1000, 512, CV_32FC1);mSineWaveTest.create(100, 512, CV_32FC1); mShow.create(200, 512, CV_8UC1);mShowReconstrction.create(200, 512, CV_8UC1); float freq_mean = 5.f;float mag_mean = 60.f;float bi..
-이동 변환 -회전 변환x' = r*cos( t+p) = r*cos(t)*cos(p) - r*sin(t)*sin(p) = x*cos(p) - y*sine(p)y' = r*sin(t+p) = r*cos(t)*sin(p) + r*cos(t)*sin(p) = y*sin(p) + x*sine(p) -크기 조절균등 크기 조절 (Uniform Scaling), 차등 크기 조절( Differential Scaling ) -전단 ( Shearing ) -반사( Reflection transformation ) 복합 행렬(Composite Matrix)여러가지 변환이 순서에 맞게 곱해져 하나의 매트릭스로 표현된 것 중심점 기준 회전 (Pivot Point Rotation) 구조 왜곡 ( Structure Deformin..
1. 확률 이란 ?전체 사건 중 특정 사건이 발생하는 비율이다.E = "주사위를 한 번 던졌을 때 1이 나올 확률" 전체 사건 : 1~6; 특정 사건 : 1. 2. 조건부 확률이란 ?전체 사건 중 특정 사건 발생 조건을 이미 알고 특정 사건이 발생하는 비율이다.F = "주사위를 던졌을 때 홀수가 나왔음을 이미 알고 1이 나올 확률" 전체 사건 : 1~6; 특정 사건 발생 조건 : 홀수; 특정 사건 : 1. - "주사위를 한 번 던졌을 때 1이 나올 확률"P(E) = P(X =1) = 1/6- "주사위를 던졌을 때 홀수가 나왔음을 이미 알고 1이 나올 확률"P(E|F) = P(X=1|X=홀수) = P(X=1 and X=홀수)/P(X=홀수)= P(X=1)/P(X=홀수) = (1/6)/(3/6) = 1/3P(..
- 매트릭스 이해Ax = b 라는 식을 보면 x가 A라는 변환을 거쳐 b가 된다. 모든 실수벡터 x에 대해 A라는 변환이 수행되어 형성 된 모든 b의 집합은 어떤 공간을 이룬다. 그럼으로 이 공간은 A라는 매트릭스가 정의 되면서 A이 자체에 종속적인 공간이 된다. 이 공간의 기저를 구하려면 A의 아이겐 밸류를 구하고 이에 대응하는 아이겐 벡터를 구하면 된다. A의 특성은 곧, 아이겐 벡터와 아이겐 밸류이기 때문에 A를 아이겐 벡터와 아이겐 밸류로 나타내는 것이 직관적이고 여러 연산에 사용하기도 편하다. A를 A의 아이겐 벡터와 아이겐 밸류로 나타내는 과정은 EVD( Eigen Value Decomposition)이다. - EVD 와 SVD 연관성(wikipedia)EVD는 m x m 정방매트릭에만 적용되..