2016/08/16
Samsung já usa CPU neuronal da IBM para visão artificial a 2000fps
O CPU TrueNorth da IBM troca o habitual sistema de processamento por um que simula o funcionamento de um cérebro humano, e a Samsung já o está a usar para visão artificial, obtendo resultados que seriam impensáveis com CPUs tradicionais.
O TrueNorth implementa em hardware uma rede neuronal, simulando um milhão de neurónios digitais e 256 milhões de sinapses. Isso dá-lhe uma capacidade sem precedentes para lidar com todo o tipo de tarefas que são complicadas de implementar nos CPUs tradicionais, mas que se podem considerar básicas para qualquer pessoa ou animal. Foi isso que levou a Samsung a ligá-lo ao seu Dynamic Vision Sensor, e os resultados não desapontam.
Este sensor pode ser equiparado a uma câmara, mas que tem a particularidade de apenas enviar os pixeis que sofreram alterações. Isso permite-lhe funcionar a 2000fps (em vez dos 120fps que um sensor convencional permitira) e que são alimentados directamente no TrueNorth, que consegue processar toda essa informação em tempo real e consumindo apenas 300mW de energia. O resultado é um sistema que pode reagir de forma imediata a coisas como gestos feitos por uma pessoa, mesmo sob condições que não sejam as ideais (como frequentemente acontece no mundo real).
Será uma questão de tempo até que, tal como actualmente temos os SoC que integram CPUs e GPUs, no futuro se venham a acrescentar-lhes ter blocos neuronais para assistir neste tipo de funções (e outras - como reconhecimento de voz). As suas capacidades, e o seu consumo de energia reduzido, farão deles companheiros altamente apetecíveis para qualquer "CPU".
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)