Por que é tão difícil provar que a tecnologia de direção autônoma é segura

7

Prolongar / Um carro autônomo do Waymo no Vale do Silício em 2019.

Fotografia Diversa / Getty

UMA relatório policial obtido pelo Phoenix New Times esta semana revela um pequeno acidente relacionado ao Waymo que ocorreu em outubro passado, mas não tinha sido relatado publicamente até agora. Veja como o New Times descreve o incidente:

Uma minivan branca da Waymo estava viajando na direção oeste no meio de três pistas na direção oeste no Chandler Boulevard, em modo autônomo, quando inesperadamente freou sem motivo. Na época, um motorista reserva da Waymo ao volante disse à polícia de Chandler que "de repente o veículo começou a parar e deu um código para o efeito de 'recomendação de parada' e parou repentinamente sem aviso".

Uma picape Chevrolet Silverado vermelha atrás do veículo desviou para a direita, mas cortou o painel traseiro, causando pequenos danos. Ninguém ficou ferido.

No geral, Waymo tem um forte histórico de segurança. Waymo acumulou mais de 20 milhões de milhas de teste no Arizona, Califórnia e outros estados. Isso é muito mais do que qualquer ser humano dirigirá na vida. Os veículos de Waymo se envolveram em um número relativamente pequeno de acidentes. Esses acidentes foram esmagadoramente menores, sem fatalidades e com poucos ferimentos graves, se é que houve algum. Waymo diz que a grande maioria dessas falhas foi culpa do outro motorista. Portanto, é muito possível que o software autônomo da Waymo seja significativamente mais seguro do que um motorista humano.

Ao mesmo tempo, a Waymo não está agindo como uma empresa com uma vantagem de vários anos em tecnologia que pode mudar o mundo. Três anos atrás, Waymo anunciou planos de comprar "até" 20.000 Jaguares elétricos e 62.000 minivans Pacifica para sua frota autônoma. A empresa não divulgou recentemente números sobre o tamanho da sua frota, mas é seguro dizer que a empresa não está nem perto de atingir esses números. O território de serviço para o serviço de táxi Waymo One no subúrbio de Phoenix não se expandiu muito desde que foi lançado, há dois anos.

Waymo não abordou o ritmo lento de expansão, mas incidentes como o fender-bender de outubro passado podem ajudar a explicá-lo.

É difícil ter certeza se a tecnologia de direção autônoma é segura

Colisões traseiras como essa raramente matam alguém, e Waymo gosta de apontar que A lei do Arizona proíbe a utilização não autorizada. Na maioria das colisões traseiras, o motorista na parte traseira é considerado o culpado. Ao mesmo tempo, obviamente não é ideal que um carro autônomo pare repentinamente no meio da estrada.

De maneira mais geral, os veículos de Waymo às vezes hesitam por mais tempo do que um humano quando encontram situações complexas que não entendem totalmente. Os motoristas humanos às vezes acham isso frustrante e ocasionalmente leva a travamentos. Em janeiro de 2020, um veículo Waymo parou inesperadamente ao se aproximar de um cruzamento onde o semáforo estava verde. Um policial em um veículo sem identificação não conseguiu parar a tempo e atingiu o veículo Waymo por trás. Novamente, ninguém ficou gravemente ferido.

É difícil saber se esse tipo de coisa acontece com mais frequência com os veículos de Waymo do que com motoristas humanos. Pequenos dobradores de pára-lama nem sempre são denunciados à polícia e podem não se refletir nas estatísticas oficiais de acidentes, exagerando a segurança de motoristas humanos. Por outro lado, qualquer acidente envolvendo tecnologia de ponta para direção autônoma provavelmente atrairá a atenção do público.

O problema mais sério para a Waymo é que a empresa não pode ter certeza de que as idiossincrasias de seu software autônomo não contribuirão para um acidente mais sério no futuro. Os motoristas humanos causam uma fatalidade cerca de uma vez a cada 160 milhões de quilômetros dirigindo – muito mais quilômetros do que Waymo testou até agora. Se o Waymo crescesse rapidamente, haveria o risco de que uma falha despercebida na programação do Waymo pudesse levar à morte de alguém.

E, o que é crucial, os carros que dirigem sozinhos tendem a cometer tipos de erros diferentes dos dos motoristas humanos. Portanto, não é suficiente fazer uma lista de erros que os motoristas humanos comumente cometem e verificar se o software que dirige sozinho evita cometê-los. Você também precisa descobrir se os carros autônomos vão atrapalhar em cenários com os quais os motoristas humanos lidam facilmente. E pode não haver outra maneira de encontrar esses cenários a não ser com muitos e muitos testes.

A Waymo registrou muito mais milhas de teste do que outras empresas nos Estados Unidos, mas há todos os motivos para pensar que os concorrentes da Waymo enfrentarão o mesmo dilema à medida que avançam em direção a implantações comerciais em grande escala. Até agora, várias empresas desenvolveram carros autônomos que podem lidar com a maioria das situações corretamente na maior parte do tempo. Mas construir um carro que pode percorrer milhões de quilômetros sem cometer um erro significativo é difícil. E provar isso é ainda mais difícil.

Fonte: Ars Technica