2025/03/04

Gemini Live ganha visão e screenshare em breve

A Google confirmou que o Gemini Live irá ganhar a capacidade de ver o mundo em tempo real e também o ecrã dos smartphones.

Até agora as interacções com os assistentes AI tem sido feita via teclado ou voz, mas já se assiste à corrida para a próxima etapa, já demonstrada em coisas como o Project Astra da Google, em que os assistentes poderão ver o mundo e também aquilo que se passa no ecrã do smartphone (e computadores), para uma interacção ainda mais natural.

Com acesso à visão do mundo através da câmara, o assistente passa a ser ainda mais útil, e o mesmo acontece ao ter acesso ao ecrã dos nossos equipamentos. E o mais incrível é que a Google promete que estas funcionalidades ficarão disponíveis para os utilizadores AI Premium de $20 por mês - para referência, a OpenAI nem sequer começou por disponibilizar o mais recente GPT-4.5 aos clientes Plus ($20/mês) fazendo-o apenas para os clientes Pro de $200/mês, só agora dizendo que irá disponibilizar o dispendioso modelo à subscrição mais económica, mas de forma limitada.




Se a Google cumprir com esta sua promessa, aumentará drasticamente a pressão sobre a OpenAI, que também terá que lançar o acesso público a estas capacidades (que também já demonstrou no passado).

Por agora, e sabendo-se o custo e requisitos de hardware a que estas capacidades obrigam, parece que a verdadeira corrida vai ser do tipo "o meu hardware é melhor que o teu, e tenho mais dinheiro para estourar a oferecer isto aos utilizadores abaixo do preço de custo". Felizmente, de vez em quando vão surgindo umas surpresas, estilo DeepSeek, que mostram que mesmo empresas mais pequenas conseguem intrometer-se nesta guerra de "biliões", e não nos deixar completamente à mercê de uma única empresa gigante que, depois de conseguir dominar o mercado, comece a aplicar aumentos de preço no acesso a estas tecnologias por ter erradicado toda a concorrência.

Sem comentários:

Enviar um comentário (problemas a comentar?)