Embora a potência gráfica dos computadores e consolas muito tenha evoluído nas últimas décadas, ainda não estamos no ponto em que a animação de um rosto humano seja suficientemente convincente para nos enganar - por isso, nada como recorrer a um humano real para o fazer.
A 3lateral e a Cubic Motion são empresas especializada na animação de rostos digitais, que trabalharam em jogos como Ryse e GTA V, e mostram-nos como hoje em dia é feito o processo de captura facial de expressões que depois dão vida aos personagens digitais dos jogos. Em vez de complexos sistemas que precisam de calibrações demoradas e centenas de marcadores no rosto dos actores, agora tudo se resumo a um pequeno sistema com câmaras usado na cabeça do autor, e que permite visualizar o resultado em tempo real.
O vídeo que se segue mostra-nos esse sistema em funcionamento, e o que estamos a ver é a janela do programa Maya a mostrar os modelos 3D em tempo-real (depois de captados os movimentos, o render final poderá ter qualidade bastante superior, assim como conter correcções e pequenos ajustes que sejam necessários fazer.)
Por mim, já estou a imaginar que daqui por mais algum tempo, nos programas de video chamada poderemos ter um destes avatares CGI à escolha, que será capaz de replicar em tempo real as expressões faciais que estivermos a fazer.
"já estou a imaginar que daqui por mais algum tempo, nos programas de video chamada poderemos ter um destes avatares CGI à escolha, que será capaz de replicar em tempo real as expressões faciais que estivermos a fazer"
ResponderEliminarJá existe Carlos, e já há algum tempo, e funciona bem com uma webcam, não é preciso setups especializados para o fazer.
https://facerig.com/