2018/06/12

ARKit 2 facilita eye-tracking nos iPhones


O ARKit 2 que virá no próximo iOS 12 da Apple têm uma funcionalidade que permite fazer eye tracking dos utilizadores, e já há alguns developers que começam a mostrar o que poderá ser feito com isso.

Já temos visto alguns smartphones que trazem algumas funcionalidades relacionadas com os olhos dos utilizadores (o próprio iPhone X faz isso, permitindo manter o ecrã ligado enquanto se está a olhar para ele) mas fazer eye tracking "a sério", em que se consegue detectar com (alguma) precisão para onde se está a olhar, penso que ainda nenhum o faz. Alguns contornam esse problema usando gestos da cabeça, como olhar para cima ou para baixo, para fazer o efeito de scrolling... mas com o iOS 12 os developers passam a ter acesso a um verdadeiro eye tracking.

Pelo que nos é mostrado, suspeito que o sistema esteja a combinar informação sobre o posicionamento e orientação da cabeça, em conjugação com a posição dos olhos - sendo que assim também fica a dúvida sobre se o sistema apenas funcionará no iPhone X com o Face ID, ou se a Apple conseguirá inferir o posicionamento 3D com precisão suficiente num iPhone sem câmara frontal 3D. Mas por outro lado, considerando que este ano todos os novos iPhones virão com Face ID, acaba por ser uma questão de tempo até que chegue aos utilizadores que mais precisem desta tecnologia.

Resta agora saber se a própria Apple poderá dar uso a esta capacidade integrando-a nas opções de acessibilidade do iOS 12, ou se por agora a sua utilização será feita exclusivamente por outros developers, até que as boas aplicações desta tecnologia sejam "destiladas" e posteriormente a Apple aproveite as melhores ideias.



Temos também este exemplo (open-source) que mostra melhor o nível de precisão que se poderá obter com o eye-tracking do iOS 12:



2 comentários:

[pub]