Elon Musk tem sido um dos grandes críticos da utilização dos LIDAR nos automóveis autónomos, dizendo que bastará utilizar câmaras normais - da mesma forma que um condutor humano depende apenas da sua visão para conduzir. Agora ficamos a perceber um pouco melhor essa opção, espreitando aquilo que a Tesla está a fazer internamente com as imagens da câmara frontal.
A Tesla está a usar um sistema AI de conversão de imagens 2D para 3D, conseguindo extrair informação estimada da profundidade e distância a partir de uma câmara convencional.
A whopping 160x120 grid (so 1/8th of the native camera resolution) but hey those are actual 3D points in space. I don't know how to make a 3D video, so just visualizing "distance" as "brighter = closer" on the scale of 5 to 62 meters (the actual limit of the output): pic.twitter.com/1XFa5JwOft
— green (@greentheonly) July 7, 2021
A imagem 3D resultante (com as cores mais claras a indicarem maior proximidade, e as mais escuras a indicarem maior distância) é de resolução reduzida (160 x 120 pixeis) mas a verdade é que isso já será mais que suficiente para efeitos de navegação. A grande questão é saber a fiabilidade deste sistema face a situações de contra-luz ou de baixa luminosidade, e também determinar se a aparente distância máxima de detecção - que parece ser de 62 metros - é suficiente para permitir uma condução em segurança. Isto porque, a 120 km/h viajamos a 33 metros por segundo, o que significa que aqueles 62 metros de visão 3D apenas dão uma margem de reacção de 2 segundos (assumindo que o potencial obstáculo é visível logo desde a sua distância máxima).
Sem comentários:
Enviar um comentário (problemas a comentar?)