Isso já rolou por aí uns anos atrás, mas nunca é demais rever.
Isso já rolou por aí uns anos atrás, mas nunca é demais rever. São vídeos re-encenados automaticamente em tempo real aplicando expressões faciais de um ator ao rosto de um feed de vídeo independente, usando apenas dados RGB (red, green & blue) monoculares e usando uma webcam comum do mercado com boa resolução. O feed pode ser oriundo do YouTube, por exemplo. O sistema também provê uma boa acoxambração para a imagem do interior da boca do personagem do feed, caso ela se abra na simulação.
Face2Face: Real-time Face Capture and Reenactment of RGB Videos
http://niessnerlab.org/projects/thies2016face.html
Artigo completo: http://niessnerlab.org/papers/2016/1facetoface/thies2016face.pdf
https://youtu.be/ohmajJTcpNk
https://youtu.be/ohmajJTcpNk
Face2Face: Real-time Face Capture and Reenactment of RGB Videos
http://niessnerlab.org/projects/thies2016face.html
Artigo completo: http://niessnerlab.org/papers/2016/1facetoface/thies2016face.pdf
https://youtu.be/ohmajJTcpNk
https://youtu.be/ohmajJTcpNk
Comentários
Postar um comentário