23 de diciembre de 2024 6:46 AM

Tesla: la NHTSA investiga el software del piloto automático tras una serie de accidentes mortales

El piloto automático Tesla está bajo fuego, de nuevo. Esta vez, las cosas son mucho más serias. La Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) abrió una investigación formal sobre el software de control de crucero adaptativo patentado de Tesla. Lamentablemente, esto se produce tras una serie de accidentes, algunos de ellos mortales. Pero ahora, Tesla está realmente en problemas con los federales.

Sur Florida / siempreauto

Tesla Model 3. / Foto: Cortesía Tesla.
Tesla Model 3. / Foto: Cortesía Tesla.

Toda la gama de modelos de la marca está sujeta a consultas

Entonces, ¿qué fue exactamente lo que llevó a los federales al piloto automático de Tesla específicamente? Desafortunadamente, ha habido una serie de accidentes, 11 para ser exactos, que la NHSTA dice que involucraron a un Tesla y a los primeros en responder mientras Tesla Autopilot estaba activo. Evidentemente, la NHSTA no toma amablemente que el personal de emergencia sea atropellado por automóviles que “conducen solos” hasta que sea legalmente conveniente que no lo hagan. Sin embargo, Tesla tiene un historial de transferir la responsabilidad de su software de computadora a los propietarios cuando le conviene.

Este comportamiento ha llamado la atención de la NHTSA. Desafortunadamente, la investigación cubre la totalidad de la alineación de Tesla, unos 765,000 vehículos. Sin embargo, es importante tener en cuenta que Tesla y, por extensión, Elon Musk, son inocentes hasta que se demuestre su culpabilidad. La investigación está en curso, pero la Junta Nacional de Seguridad en el Transporte (NTSB) recomendó que la NHTSA requiera que Tesla limite las áreas en las que se puede usar el piloto automático de Tesla.

tesla-model-3
Tesla Model 3. / Foto: Cortesía Tesla.

El piloto automático de Tesla claramente no es un sustituto de las personas reales

La NTSB le ha disparado a Tesla antes, culpando a la compañía de muchos otros accidentes. Sin embargo, hay que señalar que no es sólo el piloto automático de Tesla el culpable aquí. La gente no es muy responsable con el software semiautónomo. Han hecho de todo, desde dormir hasta conducir borrachos en sus Teslas. Sin embargo, la mayoría de las veces esas personas son castigadas. La NHTSA ahora está tratando de determinar si Tesla comparte la culpa allí también.

De alguna manera, deberían hacerlo. Existe una cultura en torno a los modelos de Tesla que se ha vuelto bastante dañina. Y es que los autos son promocionados como algo salido de iRobot o Bladerunner cuando simplemente no lo son. La conducción autónoma completa de Tesla no es una conducción autónoma total. En el mejor de los casos, es una versión beta. Francamente, los seres humanos no son lo suficientemente responsables de los coches autónomos. Y eso es lo que parece haber estimulado la investigación de la NHTSA.

Tesla Model Y
Tesla Model Y. / Foto: Cortesía Tesla.

¿Cómo puede la marca recuperarse de esto?

Está bastante claro que Tesla tiene un problema de imagen en este momento. Tesla tiene que empezar con algo de transparencia. Cambiar algunos nombres sería un buen comienzo. “Tesla Autopilot” es algo engañoso. El software de control de crucero adaptativo “SuperCruise” de GM no connota la conducción autónoma, mientras que “Autopilot” sí lo hace. Sin duda, sería un comienzo, pero habrá que ver qué dice la NHSTA para cualquier cambio real.

Facebook
Twitter
LinkedIn
WhatsApp

Relacionados