Publicidad
Publicidad

¿Es seguro el piloto automático de Tesla? Una investigación de vida o muerte

La NHTSA deberá investigar las limitaciones de Autopilot y los riesgos de seguridad tras una serie de accidentes, algunos de ellos mortales.
vie 24 septiembre 2021 03:29 PM
Los coches con piloto automático de Tesla han estado implicados en accidentes. (iStock)
Los coches con piloto automático de Tesla han estado implicados en accidentes. (iStock)

Robin Geoulla tenía dudas sobre la tecnología de conducción automática de su Tesla Model S cuando compró el automóvil eléctrico en 2017.

"Me daba un poco de miedo, ya sabes, confiar en él y simplemente, sentarme y dejar que conduzca", dijo a un investigador estadounidense sobre el sistema Autopilot de Tesla, describiendo su aprensión inicial sobre la tecnología.

Geoulla habló con el investigador en enero de 2018, días después de que su Tesla, con el Autopilot activado, se estrelló contra la parte trasera de un camión de bomberos desocupado que estaba estacionado en una carretera interestatal de California.

Publicidad

Reuters no pudo ponerse en contacto con él para obtener más comentarios.

Con el tiempo, las dudas iniciales de Geoulla sobre el Autopilot se disiparon y lo encontró fiable cuando seguía a un vehículo delante de él, pero notó que el sistema a veces parecía confundido cuando se enfrentaba a la luz directa del sol o a un vehículo delante de él que cambiaba de carril, según la transcripción de su entrevista con un investigador de la Junta Nacional de Seguridad en el Transporte (NTSB).

Antes de chocar por detrás con el camión de bomberos, estaba conduciendo con el sol de frente, dijo al investigador.

El diseño del piloto automático permitía a Geoulla desentenderse de la conducción durante su viaje, y que sus manos estuvieran fuera del volante durante los casi 30 minutos en que se activó la tecnología, según la NTSB.

La agencia estadounidense, que hace recomendaciones pero carece de poderes, ha instado previamente a los reguladores de la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) a investigar las limitaciones de Autopilot, el posible de mal uso por parte del conductor y los riesgos de seguridad tras una serie de accidentes, algunos de ellos mortales, en los que se ha visto involucrada la tecnología.

“El pasado ha demostrado que el enfoque se ha centrado en la innovación por encima de la seguridad y espero que estemos en un punto en el que esa marea esté cambiando”, dijo a Reuters la nueva presidenta de la NTSB, Jennifer Homendy, en una entrevista.

Homendy dijo que no hay comparación entre el Autopilot de Tesla y los sistemas de piloto automático más rigurosos usados en la aviación que implican pilotos entrenados, reglas que abordan la fatiga y pruebas de drogas y alcohol.

Tesla no respondió a preguntas escritas para este artículo.

El piloto automático es una función avanzada de apoyo al conductor cuya versión actual no hace que los vehículos sean autónomos, dice la compañía en su sitio web. Tesla dice que los conductores deben mantener las manos en el volante y el control de sus vehículos antes de activar el sistema.

Visibilidad limitada

El accidente de Geoulla en 2018 es uno de los 12 en los que está involucrado Autopilot, que los funcionarios de la NHTSA están examinando como parte de una investigación de mayor alcance de la agencia desde que Tesla Inc introdujo el sistema de conducción semiautónoma en 2015.

La mayoría de los accidentes que se están investigando ocurrieron después del anochecer o en condiciones de visibilidad limitada, como la luz del sol deslumbrante, según una declaración de la NHTSA, documentos de la NTSB e informes policiales revisados por Reuters.

Publicidad

La situación plantea dudas sobre las capacidades de Autopilot durante condiciones de conducción difíciles, según los expertos en conducción autónoma.

Desde 2016, los reguladores de seguridad automotriz de Estados Unidos han enviado 33 equipos especiales de investigación de accidentes para revisar los choques de Tesla, que involucran 11 muertes en las que se sospecha que los sistemas avanzados de ayuda al conductor están en uso.

La NHTSA ha descartado el uso de Autopilot en tres de esos choques no mortales.

La actual investigación del Autopilot reabre la cuestión de si la tecnología es segura, y representa el más reciente reto para Elon Musk, el presidente ejecutivo de Tesla, cuya defensa de los coches sin conductor ha ayudado a su empresa a convertirse en la automotriz más valiosa del mundo.

Tesla cobra a sus clientes hasta 10,000 dólares por funciones avanzadas de ayuda al conductor, como el cambio de carril, con la promesa de acabar ofreciendo la capacidad de conducción autónoma a sus autos usando únicamente cámaras y software avanzado.

Otros fabricantes de automóviles y empresas de conducción autónoma usan no sólo cámaras, sino hardware más caro, como radares y lídares, en sus vehículos.

Musk ha dicho que un Tesla con ocho cámaras será mucho más seguro que los conductores humanos, pero la tecnología de las cámaras se ve afectada por la oscuridad y el resplandor del sol, así como por las inclemencias del tiempo, como la lluvia intensa, la nieve y la niebla, dicen expertos y los ejecutivos del sector.

“La visión por computadora actual dista mucho de ser perfecta y lo seguirá siendo en un futuro próximo”, afirma Raj Rajkumar, profesor de ingeniería eléctrica e informática de la Universidad Carnegie Mellon.

En el primer accidente mortal conocido en Estados Unidos en el que se vio implicada la tecnología de conducción semiautónoma de Tesla, en 2016 al oeste de Williston, en Florida, la empresa dijo que tanto el conductor como el Autopilot no vieron el lado blanco de un remolque de un tractor contra un cielo muy iluminado.

En lugar de frenar, el Tesla colisionó con el camión de 18 ruedas.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad