2014/10/17

O grande problema dos "5K"


A Apple revelou os seus novos produtos para este final de ano, e entre ele encontramos um novo iMac Retina com um ecrã que supera até os mais recentes ecrãs Ultra HD, com uma impressionante resolução 5K. Uma resolução que tem intrigado alguns... mas que na verdade vem acompanhada por mais complicações do que possa parecer à primeira vista.


A maioria dos utilizadores sabe rapidamente distinguir se gosta ou não daquilo que vê, e viu com naturalidade a evolução da resolução dos televisores "low-def" para a alta-definição - primeiro para os HD 720p e posteriormente para os Full HD 1080p, onde assim tem permanecido há alguns anos. Pelo contrário, no segmento mobile os últimos anos foram de evolução ultra-rápida. Em meia dúzia de anos passamos de equipamentos com resolução de 320x240 para smartphones e tablets com resoluções de 2560x1440 que superam até os televisores e a maioria dos monitores.

Mas finalmente os televisores começam a ver aproximar-se a promessa da resolução Ultra HD 4K, e também nos monitores isso vai acontecendo; com alguns a prometerem já irem mais além - tal como este iMac 5K que se vem juntar ao monitor 5K da Dell recentemente anunciado.

Isto é algo que tem levado alguns a pensar porque motivo a Apple não disponibilizou este monitor como Cinema Display de forma a poder ser usado com um Mac Pro (por exemplo), e interrogar-se porque motivo a Apple tem deixado os seus monitores ficarem praticamente obsoletos. Mas a verdade é que a adopção dos 5K não é assim tão simples.

Tal como o Ultra HD 4K representa o quádruplo dos pixeis relativamente a um ecrã Full HD; estes 5K (5120x2880) representam o quádruplo dos pixeis de um monitor 2560x1440 - que por sua vez já eram o quádruplo de um monitor HD (1280x720). São 14.7 milhões de pixeis que têm que ser transferidos continuamente do computador para o monitor - o que, a acontecer 60 vezes por segundo resulta em algo como: 2.5GB/s de transferência necessária efectiva (ou 20Gbps aos quais será necessário adicionar todos os aspectos de sincronização e controlo).

Ora, isto é algo que não é actualmente possível atingir, nem sequer com o mais recente Thunderbolt 2.0 (que tem precisamente uma velocidade máxima teórica de 20Gbps agregando os canais). Quanto ao DisplayPort 1.2, fica logo de fora da corrida, pois só suporta um máximo de 17.8Gbps.



Não admira pois que a Apple tenha dedicado tempo na sua apresentação para referir que teve que criar um controlador específico para suportar esta resolução - o que mesmo assim não deixa de ser estranho, numa empresa que tradicionalmente se concentra no "lado do utilizador" e não no que se esconde dentro das máquinas. A teoria mais provável é que por agora a Apple esteja a recorrer a um DisplayPort modificado e com "overclock", para esticar os seus 17.8Gbps para os 20Gbps necessários para suportar este ecrã - sendo que, como se trata de um computador+monitor integrado, pode ter essa liberdade de contornar os standards e fazer "o que lhe apetecer".


Mas como consegue a Dell oferecer um monitor idêntico para ser usado independentemente? Isso é algo que se torna possível com a chegada do DisplayPort 1.3 (que só foi aprovado em Setembro) que vai duplicar a largura de banda do 1.2, permitindo suportar estas resoluções 5K, e até resoluções 8K (com recurso a compressão e sub-sampling).

Por isso... não levem demasiado a peito não poderem usar monitores 5K actualmente - a questão é que a tecnologia para o permitir ainda é mesmo muito recente, e ainda irá demorar algum tempo até que placas gráficas e monitores passem a estar aptos para tal. Até lá, podem sempre ir olhando para o ecrã de um destes iMac Retina, que certamente irá tornar-se na prenda de Natal mais desejada para quem trabalha em fotografia e vídeo - ou "contentarem-se" com um simples monitor 4K. :)

8 comentários:

  1. Então isto significa que este novo iMac apesar de toda a resolução tem um ecrã somente a 60hz ?

    ResponderEliminar
    Respostas
    1. Sim, deve ser a 60Hz, como a grande maioria dos monitores actuais - excepção aos que são vocacionados para os jogos, com frequências superiores, como 144Hz.

      Importa relembrar que ainda há pouco tempo a maioria dos monitores 4K era só a 30Hz... :)

      Eliminar
    2. Julgava que os Hertz ajudavam também no "conforto" visual para além de permitirem visualizar mais FPS...Significa também que em termos de edição de video não será muito eficaz para tratar os slo-mo das go pro de forma 100% fidedigna

      Eliminar
    3. Num LCD não é como num CRT, onde tinhas a cintilzação do ecrã e era recomendável ter 72Hz no minimo. Num LCD, mesmo 30Hz nao te causam cansaço visual e chegam perfeitamente para trabalho "normal"; e 60Hz para "tudo o resto" incluindo vídeo.

      O slow-mo não entra na equação, pois trata-se precisamente de gravar vídeo a 120/240fps (ou mais) que depois vai ser reproduzido a 24/30 ou 60fps para criar o efeito slow-motion. Por isso, verás sempre o slow-mo em condições, mesmo que tenhas um monitor de 60 ou até 30Hz. :)

      Eliminar
    4. Obrigado pela explicação Carlos, Falta-me perceber então qual o beneficio real de algumas televisões terem cerca de 400hz ou até mais.

      Eliminar
    5. Tchii isso era tema para um mega-post. Mas basicamente, são técnicas usadas para tentarem criar um efeito semelhante ao varrimento dos CRTs em vez do refresh continuado dos LCDs, usando strobe do backlight e outras coisas.
      Acaba por entrar bastante na "física" da percepção visual e do que uns consideram mais agradável ou não. Mas como disse... muito haveria por dizer. (Mas na prática resume-se a isto: é 50% marketing "treta"; é 25% tecnologia; e 25% preferências pessoais.) :)

      Eliminar
    6. Cuidado que apesar de os 30Hz não provocarem cansaço visual provocam um tremendo efeito de stuter em praticamente tudo. Por exemplo mover uma janela no ecrã vai aos "saltinhos". Para vídeo o problema já não é tão grave devido ao motion blur.

      Eliminar
  2. Eu acho que a transição deveria ser em "duplicados", evitando-se os intermediários, ou seja, passar-se gradualmente do FullHD para o 4K(8.3 megapixels - 3840 × 2160) e posteriormente para o já conhecido 8K(33.1 megapixels - 7680 × 4320), mas bem sabemos que a Apple não "pode" comprometer a famosa "Retina".

    Na prática, é o mesmo problema que se teria em conectar por cabo uma TV de 8K com o "novo" HDMI 2.0, que permite, salvo o erro, uma transferência máxima de 18Gbps, certo?.

    As empresas poderiam padronizar uma "ligação universal" para todos os dispositivos e com suporte compatível para todas as actuais e futuras resoluções(até aos 16K pelo menos)... mas quando aí chegar-mos talvez já não hajam ligações "físicas" por via de cablagem... :)

    ResponderEliminar

[pub]