O Runway tem sido um dos modelos AI de geração de vídeo que mais tem dado que falar (em parte tirando partido do Sora da OpenAI continuar sem estar disponível ao público em geral), e tem sido alvo de melhorias ao longo dos últimos meses.
Agora, os utilizadores passam a ter maior controlo sobre o movimento de câmara, com movimentação lateral, vertical, profundidade, e rotação, de forma linear ou em arco, o que vem dar todo um novo conjunto de possibildades a quem se dedica à geração de vídeos.
Advanced Camera Control is now available for Gen-3 Alpha Turbo. Choose both the direction and intensity of how you move through your scenes for even more intention in every shot.
— Runway (@runwayml) November 1, 2024
(1/8) pic.twitter.com/jRE6pC9ULn
Move horizontally while panning to arc around subjects.
— Runway (@runwayml) November 1, 2024
(2/8) pic.twitter.com/LAaTtnxjmg
Or, move horizontally while panning to explore locations.
— Runway (@runwayml) November 1, 2024
(3/8) pic.twitter.com/Fqi6D3pEK7
Combine outputs with various camera moves and speed ramps for interesting loops.
— Runway (@runwayml) November 1, 2024
(4/8) pic.twitter.com/ImCu2zCOFJ
Dramatically zoom through locations.
— Runway (@runwayml) November 1, 2024
(5/8) pic.twitter.com/COdOZN82Wz
Slowly truck across scenes.
— Runway (@runwayml) November 1, 2024
(6/8) pic.twitter.com/x1odtpSHuh
Or quickly zoom out to reveal new context and story.
— Runway (@runwayml) November 1, 2024
(7/8) pic.twitter.com/dovmMUsGEx
Começa a estar cada vez mais próximo o dia em que bastará atirar o argumento de um filme para uma ferramenta AI, e se obtenha um filme completo, gerado inteiramente de forma digital, de forma cinematograficamente correcta.
Sem comentários:
Enviar um comentário (problemas a comentar?)