A Google volta a reforçar as capacidades de pesquisa visual, com "Screen Search" via Google Lens no Android, e Multisearch para todos.
Sentindo a pressão do ChatGPT e concorrência, a Google esforça-se por mostrar serviço. Uma das vertentes é a pesquisa visual, com a Google a querer facilitar o processo dos utilizadores poderem descobrir coisas sobre tudo o que tiverem no ecrã dos seus smartphones. Essa funcionalidade remonta ao "What's on my screen" que se tinha no tempo do Google Now, mas é agora alimentada pela nova tecnologia do Google Lens, que não só pode reconhecer texto e outros elementos numa imagem, mas até dar informação sobre algo que esteja num vídeo que se esteja a ver.
A ideia é que, desde que esteja no ecrã do smartphone, seja possível obter informação adicional sobre o que se está a ver.
O passo seguinte consiste na expansão das capacidades de encadeamento "Multisearch" das pesquisas. Por exemplo, podemos ter encontrado uma mesa por intermédio de uma fotografia, mas depois pedir mesas idênticas em formato rectangular em vez do formato circular da mesa original que se tinha visto. Ou, uma foto de uns biscoitos poderá de seguida ser complementada pela indicação de "locais próximos", para se saber onde é que se poderá comprá-los.
Ainda assim, por bem vindas que sejam, estas novidades acabam por parecer melhorias mínimas, destinadas apenas a "mostrar serviço" e que não estão ao nível transformador da tecnologia ChatGPT e equivalente.
Pessoalmente, até preferia ver a Google a aplicar um pouco dessa tecnologia para melhorar o sistema de auto-correcção e sugestão do teclado Gboard, que parece ter ficado cada vez pior ao longo dos anos, ao ponto de quase passar mais tempo a corrigir as suas correcções, do que propriamente a escrever (isto quando se tem o modo multi-língua activado, com português e inglês).
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)