
A nova atualização do Full Self-Driving Beta, sistema de direção autônoma da Tesla, traz um novo aviso aos usuários: em caso de acidentes, os dados das câmeras do veículo podem ser usados de forma não anônima pela empresa.
O Full Self-Driving Beta está em fase de testes fechados e é restrito a alguns usuários convidados pela empresa. Ele já utilizava gravações das câmeras internas e externas do carro para alimentar os algoritmos e ajudar o sistema a ficar mais robusto contra acidentes. Porém, isso era feito de forma anônima, sem que os dados fossem associados a um usuário específico.
Agora, o texto diz: “Ao ativar o FSD Beta, eu dou consentimento para que a Tesla colete dados de imagens associados ao VIN a partir das câmeras externas do veículo e da câmera da cabine na ocorrência de um risco sério de segurança ou algum evento de segurança como uma colisão”. VIN é sigla para Vehicle Identification Number (número de identificação de veículo).
Esse anúncio vem logo após o primeiro acidente registrado envolvendo o FSD Beta. No começo do mês, um motorista da Califórnia registrou uma queixa no site da NHTSA (Administração Nacional de Segurança Rodoviária, o Denatran deles) dizendo que seu Tesla mudou de faixa e colidiu com outro carro. O motorista disse que tentou virar o volante para impedir a troca de faixa, mas que “o carro sozinho assumiu controle e se forçou sobre a outra faixa”, causando a colisão.
Em teoria, o FSD Beta é desativado quando há torque no volante e não exerceria força contra o motorista. Entretanto, é isso que a queixa alega. A medida da Tesla pode ser uma forma de autoproteção, permitindo que a empresa colete evidência de má fé ou erro humano em caso de acidentes.
A atualização de software 10.5 do FSD Beta começou a ser recebida pelos carros no último fim de semana.