O Google I/O 2024 vai começar hoje, mas mesmo antes disso - e talvez apenas por coincidência da OpenAI ontem ter revelado o seu GPT-4o - optou por mostrar um pouquinho das capacidades conversacionais e multimodais da sua mais recente geração do Gemini AI.
Os modelos multimodais vão dominar o sector durante o resto do ano, permitindo a interacção com texto, voz, e imagens, e aproximando-os daquilo que a que o público em gera (e o público tecnológico) associa a verdadeiros assistentes AI.
Nesta fase, mais do que as próprias capacidades, os pontos críticos serão: 1) disponibilizar efectivamente esta tecnologia ao público em geral (de nada adianta fazer demonstrações de coisas espectaculares, que depois não se materializam em produtos acessíveis); 2) fazê-lo de forma eficiente e económica (o grande ponto de destaque do GPT-4o é funcionar praticamente em tempo-real e com custo reduzido para a OpenAI face aos modelos anteriores). Veremos se a Google consegue apresentar boas novidades quanto a isto no Google I/O.One more day until #GoogleIO! We’re feeling 🤩. See you tomorrow for the latest news about AI, Search and more. pic.twitter.com/QiS1G8GBf9
— Google (@Google) May 13, 2024
Sem comentários:
Enviar um comentário (problemas a comentar?)