2018/03/24

Star Wars com ray tracing em tempo real no Unreal Engine


A GDC deste ano foi dominada por uma forte aposta no ray tracing em tempo real, e o Unreal Engine não hesitou em recorrer ao Star Wars para nos mostrar as potencialidades desta tecnologia... mesmo que por agora ainda não estejam ao alcance da maioria dos mortais.

Hoje em dia já temos jogos que nos impressionam pela sua qualidade gráfica, mas isso é feito com a ajuda de muitas "batotas" para recriar coisas como os reflexos (e não só o reflexo directo de coisas cromadas ou espelhadas, mas o próprio impacto que todo o material tem na luz), sombras, etc. Com o ray tracing isso fica automaticamente resolvido, ao se calcular o percurso dos próprios raios de luz... fazendo com que coisas como estas se tornem possíveis:





Agora a parte má: se estão a pensar que para se fazer isto teriam que ter uma GTX 1080 Ti (ou duas), a resposta fica um "bocadinho" acima... Isto está a ser feito por uma DGX Station da Nvidia - uma máquina que custa a módica quantia de 60 mil dólares - e, no mínimo dos mínimos, precisará de uma Titan V, placa que actualmente custa cerca de 3 mil dólares (e que mesmo assim se engana a fazer contas).

Mas já sabemos como estas coisas são... Hoje parecem inatingíveis, daqui por uma década estaremos a rir-nos disto, com gráficos ray-traced a serem feitos sem dificuldade nos nossos smartwatches e óculos digitais... :)


Fiquem com mais alguns vídeos do que o Unreal pode fazer a nível de simulação de pessoas digitais em tempo real; assim como mais uma dose de ray-tracing da Nvidia.







3 comentários:

  1. Ninguém pode negar os resultados obtidos. São realmente inovadores e nunca antes fomos capazes de obter tal fidelidade. Isto vai permitir melhorar e muito as atuações em jogos e em filmes.

    Já agora Carlos, penso que falta aí o melhor vídeo de todos, dessa mesmo apresentação do Unreal Eng. Refiro-me à performance to ator Andy Serkis. Pretende demonstrar o mesmo que o vídeo da "Siren", mas na minha opinião está uns pontos acima. O vídeo da "Siren" parece-me ainda ter bastantes defeitos, principalmente nos movimentos da boca.

    https://www.youtube.com/watch?v=TxErDzsIdKI

    ResponderEliminar
    Respostas
    1. Mas isso só acontece devido ao "uncanny valley" e facilmente detectarmos qualquer irregularidade "não-natural" no rosto de uma pessoa "virtual" que tente ser foto-realista... Se for aplicado a um "boneco" (como no caso do Serkis) esses defeitos são automaticamente descartados. :)

      Eliminar
    2. Compreendo e subscreve esse argumento, mas eu refiro-me à diferença de fidelidade entre a "Siren" e a animação do Serkis à esquerda. Os movimentos da boca na Siren não parem tão bons como o da animação do Serkis.

      Eliminar