2015/11/26

Rede neuronal descreve o mundo visto pela câmara de um computador


Os avanços feitos no reconhecimento de elementos em imagens nos últimos anos são surpreendentes, permitindo que actualmente se façam coisas como pesquisar pelas nossas fotos no Google usando parâmetros como "flores, carros, montanhas, etc". Mas... que tal se desenrasca um computador a tentar descrever o mundo que vê através da câmara de um computador?

Foi precisamente o que Kyle McDonald decidiu testar, pegando no software de reconhecimento de imagens open-source NeuralTalk,e modificando-o ligeiramente de modo a que, em vez de identificar imagens estáticas, ficasse em modo de reconhecimento contínuo usando a câmara do seu Macbook. E depois... foi só ir dar um passeio pelas ruas de Amesterdão para nos mostrar como o computador descrevia aquilo que ia vendo.

É certo que há muitas situações em que falha de forma hilariante, com descrições que nada têm a ver com aquilo que se está a ver; mas mais impressionante será ver a quantidade de vezes que acerta... e ainda mais as quantidades de vezes em que acerta de forma extremamente detalhada.

É preciso não esquecer que aqui estamos a usar um sistema que está a correr num único computador; pelo que se torna inevitável imaginar aquilo que empresas como Google e outros gigantes já poderão fazer com o seu poder imensamente superior. Não me admira nada que daqui por uns tempos as cidades comecem a direccionar o streaming das suas câmaras de vigilância para sistemas como este, que poderão talvez ajudar a detectar situações como acidentes, engarrafamentos, ou outras coisas que mereçam atenção especial, evitando a situação de ter operadores humanos a tentar observar continuamente dezenas ou centenas de câmaras.

Sem comentários:

Enviar um comentário (problemas a comentar?)