목록전체분류 (150)
The Beautiful Future
https://en.wikipedia.org/wiki/Positive-definite_matrix#Negative-definite.2C_semidefinite_and_indefinite_matrices- Positive definiteM : symmetric n x n real matirxz : non-zero column vector of n real numbers을 만족하는 경우. M : Hermitian matrix : symmetric matrix을 복소수로 확장된 개념.
#include "opencv.hpp"#include #include #define _USE_MATH_DEFINES#include int main(int argc, char* argv[]){cv::Mat mSineWave;cv::Mat mSineWaveTest;cv::Mat mShow;cv::Mat mShowReconstrction; mSineWave.create(1000, 512, CV_32FC1);mSineWaveTest.create(100, 512, CV_32FC1); mShow.create(200, 512, CV_8UC1);mShowReconstrction.create(200, 512, CV_8UC1); float freq_mean = 5.f;float mag_mean = 60.f;float bi..
-이동 변환 -회전 변환x' = r*cos( t+p) = r*cos(t)*cos(p) - r*sin(t)*sin(p) = x*cos(p) - y*sine(p)y' = r*sin(t+p) = r*cos(t)*sin(p) + r*cos(t)*sin(p) = y*sin(p) + x*sine(p) -크기 조절균등 크기 조절 (Uniform Scaling), 차등 크기 조절( Differential Scaling ) -전단 ( Shearing ) -반사( Reflection transformation ) 복합 행렬(Composite Matrix)여러가지 변환이 순서에 맞게 곱해져 하나의 매트릭스로 표현된 것 중심점 기준 회전 (Pivot Point Rotation) 구조 왜곡 ( Structure Deformin..
1. Likelihood Function 통계학에서 EM 알고리즘은 통계적인 모델의 매개변수를 maximum likelihood 또는 maximum a posteriori 을 이용해 예측하는 반복적인 방법이다. 통계적모델은 관측되지 않은 laten variable에 종속적이다. EM 반복은 expectation과 maximization을 반복하는데 expectation은 현재의 예측된 모델 매개변수를 이용해서 평가된 log-likelihood의 기대치를 위한 함수를 생성한다, maximization은 expectation에서 생성된 log-likelyhood을 최대화하는 통계모델의 매개변수를 계산한다. 관측된 데이터 X을 생성한 통계모델, 관측되지 않은 latent data Z, 통계모델의 알아내야 할 ..
0. GMM을 이해하기 위해 필요한 선행지식- 베이지안 룰- 미분( 함수, 매트릭스 )- 조건부 최적화- K-means clustering- EM 알고리즘 1. GMM 개념언떤 데이터의 확률 분포를 여러개의 가우시안함수를 기저(Component distribution)로하여 근사화하는 것이다. 2. GMM 모델 공식화 K개의 가우시안의 가중치 합으로 확률 분포를 나타낼 수 있다.화이의 합은 1이여야하며 각 화이는 0보다 크고 1보다 작아야한다. 3. GMM 문제 풀이 공식화(Objective Formulation)주어진 데이터 X로 부터 가우시안의 평균, 분산, 혼합계수(mixing coefficient)를 구해야 된다. 아래의 조건부 확률을 최대로 하는 매개변수를 찾아야한다. 각 샘플xi은 독립이다.위..
1. 확률 이란 ?전체 사건 중 특정 사건이 발생하는 비율이다.E = "주사위를 한 번 던졌을 때 1이 나올 확률" 전체 사건 : 1~6; 특정 사건 : 1. 2. 조건부 확률이란 ?전체 사건 중 특정 사건 발생 조건을 이미 알고 특정 사건이 발생하는 비율이다.F = "주사위를 던졌을 때 홀수가 나왔음을 이미 알고 1이 나올 확률" 전체 사건 : 1~6; 특정 사건 발생 조건 : 홀수; 특정 사건 : 1. - "주사위를 한 번 던졌을 때 1이 나올 확률"P(E) = P(X =1) = 1/6- "주사위를 던졌을 때 홀수가 나왔음을 이미 알고 1이 나올 확률"P(E|F) = P(X=1|X=홀수) = P(X=1 and X=홀수)/P(X=홀수)= P(X=1)/P(X=홀수) = (1/6)/(3/6) = 1/3P(..
칼만 필터의 핵심은 정보 유합(information fusion)이다.아래 그림과 같이 자동차가 Xt1에서 Xt2로 이동했다고 하자.그리고 우리가 궁금한 것이 자동차의 Xt2위치 값이라고 하자.Xt2의 위치를 어떻게 측정 할 수 있을까 ? 여러가지 방법이 있을 것이다. 첫번째 방법 자동차가 Xt1에 있을때의 위치 Xt1과 속도 v와 시간 t1, t2를 알고 있다고 가정하면 Xt2 = Xt1 + v*( t2 - t1 )의 공식으로 Xt2의 위치를 예측 할 수있다.이 방법은 이동하는 사이에 속도 v가 변하지 않고 자동차가 좌우로 흔들리지도 않아야 정확히 맞을 것이다. 이렇게 완벽한 경우는 없고 오차가 분명히 있으므로 이 방법은 오차를 가지고 있다고 볼 수 있다.두번째 방법영상처리를 통해서 Xt2의 위치를 측..
Generalized Delta RuleError back-propagation algorithmMulti-start
사람 뇌의 Neuron을 모방한 것이다. 학습은 w를 구하는 것이다. -분류 동작:f(s) > 0 이면 class 1, f(s)
- 매트릭스 이해Ax = b 라는 식을 보면 x가 A라는 변환을 거쳐 b가 된다. 모든 실수벡터 x에 대해 A라는 변환이 수행되어 형성 된 모든 b의 집합은 어떤 공간을 이룬다. 그럼으로 이 공간은 A라는 매트릭스가 정의 되면서 A이 자체에 종속적인 공간이 된다. 이 공간의 기저를 구하려면 A의 아이겐 밸류를 구하고 이에 대응하는 아이겐 벡터를 구하면 된다. A의 특성은 곧, 아이겐 벡터와 아이겐 밸류이기 때문에 A를 아이겐 벡터와 아이겐 밸류로 나타내는 것이 직관적이고 여러 연산에 사용하기도 편하다. A를 A의 아이겐 벡터와 아이겐 밸류로 나타내는 과정은 EVD( Eigen Value Decomposition)이다. - EVD 와 SVD 연관성(wikipedia)EVD는 m x m 정방매트릭에만 적용되..