The Beautiful Future
FACE IT!: A PIPELINE FOR REAL-TIME PERFORMANCE-DRIVEN FACIAL ANIMATION 본문
FACE IT!: A PIPELINE FOR REAL-TIME PERFORMANCE-DRIVEN FACIAL ANIMATION
Small Octopus 2022. 8. 4. 17:50ICIP 2019
이미지에서 랜드마크 디텍션해서 3D 캐릭터의 블렌드셰입에 맵핑하는 기술 연구
가벼운 에너지 기반 최적화
인트로덕션
performance-driven facial animation from a monocular setup
We formulate 3D character animation as a lightweight energy-based optimization problem solved with non-linear least-squares
To fulfill real-time constraints, our energy functional relies only on a sparse set of 2D facial landmarks, which are used
to update the head pose and facial expressions
A novel differentiable energy term for specifying the range of the blendshape target weights
A set of experiments for the validation of different aspects of the proposed method
넓은 범위 오버뷰
[4] State of the art on monocular 3D face reconstruction, tracking and applications. Computer Graphics Forum. 2018.
non-rigid tracking, physical makers, RGB-D, manual intervention
[5] Face/off: Live facial puppetry, SIGGRAPH 2009.
[1] Realtime performance-based facial animation. Graphics. 2011.
[2] Online modeling for realtime facial animation. Graphics 2013.
[6] Realtime facial animation with on-the-fly correctives. Graphics 2013.
[7] Realtime expression transfer for facial reenactment. Graphics 2015.
[8] Facial retargeting with automatic range of motion alignment, Graphics 2017.
[9] Self-supervised cnn for unconstrained 3d facial performance capture from a single RGB-D camera, 2018.
user-specific shape regressor
[10] 3D shape regression for real-time facial animation public image dataset to train regressor, Graphics 2013.
[11] Displaced dynamic expression regression for real-time facial tracking and animation, Graphics 2014.
bilinear face model for identity and facial expression (2D or RGB-D)
[12] FaceWarehouse
offline user-specific 3D face rigs from videos.
[13] Reconstruction of personalized 3D face rigs from monocular video real-time photo-realistic facial monocular reenactment video. Graphics, 2016.
track facial landmarks, dense photometric consistency, reweighted least squares solver.
[14] Face2face, CVPR 2016.
real-time expression-transfer approach, 2D, user-specific.
[15] Real-time facial expression transfer with single video camera. Computer Animation and Virtual Worlds. 2016.
deep neural net, real-time, 3D from image, facial region segmentation, occlusion, significant gead rotation.
[16] Real-time facial segmentation and performance capture from RGB input. ECCV 2016.
iphone X depth camera
[17] Use animoji on your iphone x and ipad pro
https://support.apple.com/en-gb/HT208190, 2018
이 논문 요약.
single CPU at real-time rates. facial landmark 에 의존적. 특별한 하드웨어 필요 무, 프리프로세싱 무, 매뉴얼 인터벤션,
수동 조작 간섭 무, 데이터셋 필요 없음, 타켓 스페시픽 무.
블렌드쉐입으로 선형 파라미터 모델 정의 . 에너지 기반 최적화 문제를 푼다. 이차원 얼굴 표정을 가상 쓰리디 아바타로 애니메이드
또는 미리 구해진 사람 스페시픽 삼차원 재구성에 적용될수 있다. 이 방법은 퍼스펙티브 프로젝션과 카메라 내부 파라미터를 알고있다고 가정한다.
Alignment of Blendshape Targets.
[20] Generating 3D faces using convolutional mesh autoencoders, ECCV 2018.
[21] A FACS valid 3D dynamic action unit database with applications to 3D dynamic morphable facial modelingICCV2011.
[22] Learning a model of facial shape and expression from 4D scans, TOG 2017.
[20] 에서 44개의 블렌드쉐입 타겟을 골랐다. 그리고 [22]에서 제공된 방법으로 [21]에서 스캔 버전을 변경했다.
이 데이터셋들은 일관되게 5023 버텍스와 9976 페이스를 제공한다.
비록 FaceWarehouse만큼 표정변화가 크지않지만 적은 수의 버텍스가 리얼타임 목적에서는 매력적이다.
얼굴 표정들의 약간 정렬이 안되어있는것을 보상하기위해, 우리는 [22]의 스캔을 오쏘고날 프러크러스트를 사용 등록했다.
A와 B는 두 블렌드쉐입 타겟이다. R은 오쏘고날 매트릭스 A에서 B로 맵핑하는.
모든 메쉬 M에대해서 우리는 R을 계산했다. R = UD'V^T , R의 SVD.
svd(M) = UDV^T , M의 svd이다.
D = diag( 11 det(VU^T))
오직 머리 뒤쪽에 있는 포인트만을 사용해서 얼라인했다.
'논문' 카테고리의 다른 글
Realtime Performance-Based Facial Animation (0) | 2022.08.14 |
---|---|
Multi-view 3D Reconstruction Software (0) | 2022.08.09 |
Facial Expression Retargeting from Human to Avatar Made Easy (0) | 2022.07.24 |
Survey on Transfer of Facial Blendshapes (0) | 2022.07.24 |
FLAME: Learning a model of facial shape and expression from {4D} scans (0) | 2022.07.03 |