목록전체 글 (149)
The Beautiful Future
- 랜드 마크 로컬라이제이션 문제를 리그레션으로 풀때 L2 로스 보다 L1, L1 Smooth 로스가 좋다. - 윙로스는 중간 작은 크기의 에러를 모델이 더욱 고려할 수 있게 설계했다. 즉, 큰 로스에 도미넌트 당하지 않게 하기위해 고안되었다. - 포즈에 기반한 데이터 밸런싱 방법을 제안하였다.
. arxiv.org/pdf/2101.03961v1.pdf
- An Efficient PointLSTM for Point Clouds Based Gesture Recognition CVPR2020 NVGesture에서 Accuracy: 87.9 ( 1st 2021-01-27 확인, paperswithcode.com/sota/hand-gesture-recognition-on-nvgesture-1) 스켈레톤 기반 인식 방법, 시퀀스 기반 모델. 제스쳐 인식을 불규칙적인 순서 인식으로 공식화. 포인트 클라우드의 긴 기간 공간 상관을 캡쳐 PointLSTM을 이용해 이웃 포인트의 과거 지금 미래 LSTM layer. NVGesture and SHREC’17 에서 더 좋은 성능을 보였고, MSR Action3D을 이용해 일반화를 보임. - Real-time Hand Ge..

www.researchgate.net/figure/Classification-of-a-hand-gestures-and-b-hand-gesture-recognition-tools_fig1_221144352
towardsdatascience.com/sign-language-recognition-using-deep-learning-6549268c60bd Sign language recognition using deep learning A dual-cam first-person vision translation system towardsdatascience.com 머리 가슴 두개 카메라, 24 gestures, Panamanian Manual Alphabet 을 인식하는 시스템 구상.
- Hand Gesture Recognition dataset -- NVGesture NVIDIA Dynamic Hand Gesture Datase, 차안에서 촬영, RGB, Depth, IR로 촬영됨 1532 videos, 25 classes, 1050 train videos, 482 test videos. -- ChaLearn val/test -- EgoGesture 사용자 중심(egocentric) 다양하고 넓은 범위의 데이터셋, 세그멘트 제스쳐 분류와 제스쳐 디텍션을 위해 만들어졌다. 83개의 종류의 정적 동적 제스쳐가 6 종류의 실내 실외에서 수집되어졌다. 구분되는 사람으로 3:1:1 비율로 생성되어서 학습 1239, 검증 411, 테스트 431 비디오 14416, 4768, 4977 제스쳐 샘..

Quantization scheme affine mapping of integers q to real numbers r r = S(q-Z), r: real value, q: quantized value, S: scale, Z: zero point S는 양의 실수 이다, Z는 q와 같은 타입의 콴타이즈되어있는 수이고 q = Z 이면 real value 0이다. weight는 8bit integer로 퀀타이즈되고 bias는 32bit로 콴타이즈된다. Integerarithmeticonly matrix multiplication (4)에서 M 만 int가 아니다. M을 int로 바꾸고 fixed-point mul을 한다. 실험적으로 S1, S2, S3는 항상 (0,1)사이에 있다는 것을 찾았다. M0 는 [0..
https://github.com/google/gemmlowp/blob/master/doc/quantization.md google/gemmlowp Low-precision matrix multiplication. Contribute to google/gemmlowp development by creating an account on GitHub. github.com Overview gemmlowp 은 내부적으로 32bit accumulator을 사용하고 최종으로는 8bit 출력을 내보낸다. Quantization as an affine map $$ real value = A * quantized value + B $$ $$ real value = C * (quantized value + D) $$ Do..
@ tensorflow quantize tf.quantization.quantize( input, min_range, max_range, T, mode='MIN_COMBINED', round_mode='HALF_AWAY_FROM_ZERO', name=None, narrow_range=False, axis=None, ensure_minimum_range=0.01 ) - min_range = min( input_tensor ), max_range = max( input_tensor) - MIN_COMBINED mode 인경우, out[i] = (in[i] - min_range) * range(T) / (max_range - min_range) if ( T == qint8 ) out[i] -= (range(T..
https://pytorch.org/docs/stable/quantization.html Quantization — PyTorch 1.6.0 documentation Shortcuts pytorch.org Introduction 콴타이제이션하면 2~4배 빠르다. x86 CPU에서 AVX2 이상 SIMD연산을 지원한다. ARM CPU에서 일반적으로 mobile/embedded devices를 찾을 수 있다. Backend 파이토치는 콴타이제이션은 현재 x86과 ARM용으로 두가지 백엔드를 지원한다. fbgemm for x86, qnnpack for ARM QNNPACK 이 두 모드지원은 qconfig에서 설정이 가능하다. post training quantization qconfig = torch.quan..