La agencia de seguridad vial de EE. UU. investiga las declaraciones de Tesla sobre la autonomía de sus vehículos y plantea dudas sobre el impacto en la seguridad de los usuarios.
La Administración Nacional de Seguridad del Tráfico en Carreteras de EE. UU. (NHTSA) ha advertido que las afirmaciones públicas de Tesla sobre la conducción autónoma de sus vehículos contradicen las indicaciones de uso en los manuales de usuario. La discrepancia ha llevado a la agencia a exigir una revisión en la comunicación de la compañía.
La NHTSA ha solicitado a Tesla, a través de una carta firmada por Gregory Magno, jefe de la Oficina de Investigación de Defectos de la agencia, que aclare su comunicación sobre el sistema “Full Self-Driving” (FSD) de la marca, ya que los manuales indican que los vehículos requieren supervisión humana constante, mientras que en varias ocasiones Tesla ha promocionado sus autos como capaces de conducirse solos.
La solicitud, emitida en mayo, se origina a partir de una serie de accidentes que involucran el sistema FSD en condiciones de baja visibilidad, como resplandor solar o niebla, donde se registraron cuatro choques e incluso la muerte de un peatón en Arizona. Los críticos, entre ellos el Secretario de Transporte de EE. UU., Pete Buttigieg, acusan a Tesla de utilizar términos engañosos como “Full Self-Driving” o “Autopilot”, lo cual da a entender una autonomía total que los vehículos aún no poseen.
Tesla, bajo la dirección de su CEO, Elon Musk, ha proyectado un futuro en el que sus autos se desplacen sin intervención humana y ha anunciado planes para lanzar “robotaxis” sin volante en 2026 en California y Texas. Sin embargo, estos anuncios chocan con la realidad actual: la tecnología requiere de la intervención humana, y los incidentes han puesto en entredicho la seguridad de estos sistemas en escenarios imprevistos.
La situación se complica por la postura pública de Musk, quien ha reiterado su compromiso con la autonomía total, y ha afirmado que los Modelos Y y 3 funcionarán sin conductores el próximo año. Esta promesa es clave para el valor de las acciones de Tesla, que en gran medida dependen de la posibilidad de desplegar una flota de vehículos autónomos.
En su carta, Magno subraya que Tesla ha realizado publicaciones en redes sociales, a través de X (anteriormente Twitter), que muestran un comportamiento de conducción despreocupado en el que los conductores no parecen prestar atención. Este tipo de mensajes, según la NHTSA, podrían inducir a los usuarios a considerar el sistema FSD como un “chofer autónomo”, en lugar de un asistente de conducción que requiere atención constante. Como ejemplo, cita un caso reciente donde Tesla resaltó el uso del FSD para llevar a un conductor a urgencias mientras sufría un infarto.
La controversia aumenta al considerar la posibilidad de que Musk, quien ha invertido considerablemente en la campaña presidencial de Donald Trump, pudiera adquirir un papel en la regulación de los estándares de seguridad para vehículos autónomos, lo cual preocupa a grupos defensores de la seguridad.
Según Michael Brooks, director del Centro para la Seguridad Automotriz, esta situación representaría un “peligro para la democracia”, ya que daría a un empresario control sobre regulaciones que afectan a sus propias empresas. ¿Hasta qué punto puede Tesla garantizar la seguridad de sus usuarios sin sacrificar su imagen de innovación?
Fuente: prensa.ec
Comments are closed, but trackbacks and pingbacks are open.