A Google está a melhorar o Google Assistant, para permitir uma interacção mais natural com os utilizadores.
Enquanto aguardamos por um Google Assistant que tenha as capacidades de conversação que a Google mostrou no Google I/O do ano passado, por agora a Google avança com algumas melhorias de ordem prática que também serão bem apreciadas.
Com o novo Look and Talk, o Google Assistant poderá dispensar a necessidade de repetir o ingrato "Hey Google" nos Nest Hub Max, bastando olhar para dispositivo - que terá a capacidade para reconhecer o nosso rosto, para além da nossa voz, e perceber se estamos a olhar para ele para ficar pronto para responder aos nossos comandos ou perguntas. Isto, com processamento feito localmente, para que não se enfrentem as chatices de estar a fazer o reconhecimento facial num servidor da Google algures na cloud.
A Google diz que analisa mais de 100 sinais, da câmara e microfone, incluindo coisas como o olhar, posição da cabeça, e até o movimento dos lábios, para determinar se o utilizador está de facto a querer falar com o Google Assistant, de modo a só activá-lo quando realmente o utilizador tem essa intenção.
As melhorias também incluirão uma melhor capacidade de lidar com as hesitações naturais de quando uma pessoa está a falar, incluindo pausas, ou dizer "hummm" enquanto pensa, ou quando efectua correcções a meio de uma frase, de modo a que o Google Assistant se aproxime do nível de interpretação que se esperaria de uma pessoa.
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)