2018/03/31

Acidente mortal com Model X tinha Autopilot activado


Já há mais desenvolvimentos sobre o acidente que vitimou o condutor de um Tesla Model X, tendo ficado confirmado que o veículo estava de facto com o modo Autopilot activado quando chocou violentamente contra um separador na via.

Infelizmente já foi demonstrado, por diversas vezes, que os sistemas de assistência à não são infalíveis (com a primeira morte num Tesla em modo "autopilot" em 2016, quando não detectou um camião atravessado na estrada - e mais recentemente o caso da Uber que atropelou uma pessoa que atravessava a estrada) e agora temos mais um caso a somar a esses.

Embora não tivesse sido confirmado na altura, foi agora revelado que o Model X seguia efectivamente com o modo Autopilot activado quando se deu o acidente, com a distância de separação do cruise control adaptativo configurada para o mínimo, e com o sistema a ter dado múltiplos alertas visuais e um alerta sonoro anteriormente (mas não necessariamente imediatamente antes do acidente) para que o condutor colocasse as mãos no volante.

A Tesla diz que o condutor não colocou as mãos no volantes no período de 6 segundos que antecederam o acidente, o que resulta em 5 segundos para reagir e 150 metros de vista desobstruída para o separador com que viria a colidir; e que lamentavelmente não tinha o sistema de amortecimento, que tinha sido danificado num acidente anterior. Sendo que de seguida a Tesla refere que estes sistemas de assistência à condução não são infalíveis, mas que ajudam na segurança, etc. etc. etc.


É o tipo de relato que a Tesla teria que fazer, mas que no entanto não aborda uma questão muito importante: a da confiança que o sistema inspira nos utilizadores. Acho caricato que a Tesla diga que o condutor tivesse 5 segundos para reagir quando, da perspectiva do condutor, o automóvel estaria a circular normalmente e sem que nada fizesse prever que fosse chocar contra o separador!

A própria forma como a Tesla escreve o seu comunicado, referindo que anteriormente o sistema tinha alertado o condutor, é deliberadamente feito para passar a imagem que o condutor estaria a actuar de forma descuidada, para retirar importância ao facto de que, para o efeito que interessa, o condutor só terá retirado as mãos do volante durante 5 ou 6 segundos antes do impacto, e nesse período não ter recebido qualquer aviso de colisão iminente (em cujo caso o carro também tentaria evitá-la ou minimizá-la, o que não parece ter acontecido, considerando a violência do embate, que praticamente cortou o carro ao meio).

Portanto, o que fica por explicar é porque motivo este Model X não se conseguiu manter correctamente na sua via; sendo "compreensível" - mas pouco ético - que a Tesla tente culpabilizar de qualquer forma o condutor, que pensaria que o carro seguiria a via correcta como seria suposto e como seguramente teria feito centenas de vezes em viagens com Autopilot anteriores, até conquistar a confiança necessária do condutor. Se a Tesla diz que a culpa é do condutor por não ter reagido durante 5 ou 6 segundos, eu contra-argumento dizendo que seria praticamente impossível evitar o acidente ao descobrir, no último momento, que o carro afinal não iria seguir pelo caminho correcto, seguindo a estrada.

Resta esperar que tenha sido possível recuperar as gravações de vídeo do veículo, para se esclarecer esta situação.


Actualização: Tendo-me dado ao trabalho de procurar o local do acidente no Google Maps, torna-se ainda mais aparente que o piso degradado e as marcações na estrada poderão ter baralhado com sistema do Autopilot, ao ponto de o fazer pensar que as linhas que delimitavam o separador eram a via a seguir - e nem o radar nem o sistema de câmaras terá conseguido detectar que ia directo a um obstáculo.
Nota: mesmo não tendo o amortecedor de embates expandido como nas imagens que se seguem; continuava a ter o painel com as faixas pretas e amarelas - como se pode ver na imagem acima, em que a Tesla foi buscar uma imagem do local no dia anterior ao acidente, a outro Tesla que tinha passado no local. Nem que fosse apenas com base nesse painel, o sistema de visão deveria ter detectado algo anómalo e alertado o condutor atempadamente... Algo que a Tesla não diz expressamente que aconteceu.



10 comentários:

  1. Até à data parece que o sistema da Waymo (ex Google) parece ser o mais seguro, mas deve fazer um bom uso do Lidar e muito processamento com "visão" artificial (coisa que o Google já domina do Google Photos - e reconhece as pessoas mesmo nos videos).

    ResponderEliminar
  2. Não estou dentro da tecnologia da tesla. O autopilot além de avisar o condutor, decide por ele caso não haja resposta humana?

    ResponderEliminar
    Respostas
    1. Sim, têm havido vários casos a correr bem:
      https://abertoatedemadrugada.com/2016/07/tesla-em-piloto-automatico-evita.html

      Eliminar
  3. Será que o sistema confundiu a "facha" do separador como uma facha de rodagem? É que a última informação das fachas também está a poucos metros de distância antes do separador mas, é de facto uma estrada perigosa e mal assinalada.

    ResponderEliminar
  4. Estas mega-corporações até podem dizer que estes sistemas poderão vir a diminuir o nº de mortos na estrada mas uma grande razão para haver falta de confiança nestes sistemas é a irresponsabilidade com que os sistemas estão a ser implementados.

    E os acidentes que envolvam pessoas resolvem-se porque as pessoas têm seguro! E a culpa é atribuída a um dos condutores. Em acidentes deste caso quem cobre o acidente? O que se tem visto são estas mega-corporações a tentar fugir com o rabo á seringa.

    ResponderEliminar
    Respostas
    1. A culpa continua a ser do condutor. Compra-se um carro, os sensores de estacionamento não funcionaram corretamente e batemos, a culpa é do condutor e neste caso a situação é a mesma, ele é que é o responsável pelo veículo quando circula na estrada a menos que a empresa venha a querer assumir a culpa.

      Eliminar
    2. As coisas não assim. A Tesla não se livra das culpas de permitir que o Autopilot seja usado de forma potencialmente insegura.

      Eliminar
  5. Com efeito, o local arrepia de tão mal sinalizado que é... :(

    Mas certeza, certeza, apenas sabemos que muitas mais pessoas irão pagar com a própria vida para que este tipo de tecnologia seja aperfeiçoada.

    ResponderEliminar

[pub]