¿Quién es responsable por un accidente con un automóvil autónomo?

spanish speaking lawyers in florida
Lo Que Consideran e Investigan Los Abogados Especializados en Lesiones Personales al Momento de Tomar un Nuevo Caso
October 22, 2019
settlement vs trial lawyers Bufete
¿Mi caso de lesiones personales irá a juicio?
October 23, 2019

¿Quién es responsable por un accidente con un automóvil autónomo?

liability for self driving car accidents

Los coches que se conducen a sí mismos, a menudo denominados vehículos autónomos, se están convirtiendo rápidamente en algo común en las carreteras. No es de extrañar que los accidentes automovilísticos que involucran a vehículos autónomos ya hayan ocurrido y hayan sido objeto de debate y demandas legales.

Cuando un automóvil autónomo causa un accidente que hiere o mata a otro conductor, ¿quién es responsable de sus acciones? El pasajero transportado en el vehículo autónomo probablemente no será responsable por las lesiones causadas por el automóvil autónomo, a menos que de alguna manera haya sido el responsable.

Si el accidente automovilístico se debió a una falta de mantenimiento apropiado, por ejemplo, y dicho mantenimiento es responsabilidad del propietario, entonces el propietario podría ser responsable.

Si el pasajero del vehículo autónomo no seguía las instrucciones de funcionamiento adecuadas, como ocurrió en el primer accidente mortal del piloto automático de un Tesla en mayo de 2016, puede ser difícil responsabilizar al fabricante por el accidente y las lesiones o muertes resultantes.

En el momento de ese primer accidente, Tesla insistió en que los conductores debían permanecer alertas y estar preparados para tomar el volante en cualquier momento. Desde el punto de vista de la responsabilidad civil, Tesla quería que los clientes vieran las características de conducción autónoma de sus vehículos como un asistente de conducción en lugar de como un vehículo totalmente autónomo. En el informe final de la Junta Nacional de Seguridad en el Transporte (NTSB, por sus siglas en inglés), concluyeron que el conductor del camión tenía la culpa, pero también asignaron parte de la culpa al conductor del Tesla, y a Tesla por usar un sistema que permitía a los conductores dejar de ver y de concentrarse en la carretera por períodos prolongados.

Casos actuales que pueden afectar leyes futuras y precedentes de lesiones personales

En marzo de 2019, el conductor de un Tesla Model 3 murió en Florida cuando chocó con un camión que se cambió de carril de manera inesperada. Este accidente tuvo circunstancias situacionales similares a las de otros tres accidentes mortales en los que se vio involucrado el sistema de conducción semiautónoma de Tesla, incluyendo ese primero en mayo de 2016.

Tesla utiliza una combinación de cámaras y radar para guiar sus vehículos autónomos. El sistema tiene dificultades documentadas para reconocer objetos estáticos y aquellos que se mueven perpendicularmente al vechículo, como en el accidente de Florida, en el que un camión articulado cruzaba lentamente a la izquierda frente a un Tesla que se acercaba y que iba a 68 millas por hora. También se reportaron tres accidentes que involucraron a vehículos Tesla que chocaron con camiones de bomberos aparcados en 2018.

Cadillac y Audi utilizan sensores especializados de seguimiento ocular en la cabina del vehículo en sus modelos semiautónomos. Estos sensores pueden identificar cuando un conductor no está prestando atención y utiliza luces indicadoras y sonidos para hacer que los conductores se concentren de nuevo en la carretera. Tesla utiliza el giro del volante para saber si el conductor está prestando atención. Como señaló la NTSB en su investigación del primer accidente mortal de un Tesla, “monitorear el giro del volante es una manera deficiente de determinar el grado de compromiso del conductor del vehículo autónomo con la tarea de conducir”.

Es bastante obvio que hay un defecto en el software, hardware o en la forma en que ambos se implementan. De lo contrario, los vehículos podrían detenerse a tiempo de manera fiable y evitar colisionar con objetos aparcados o con vehículos lentos que crucen frente a ellos.

El otro factor importante que determina la responsabilidad es las expectativas establecidas por la empresa. ¿Anuncia y vende Tesla su producto de tal manera que los conductores esperen poder poner el vehículo en piloto automático y dormir o distraerse?

Si Tesla dice abiertamente o implica a sus clientes que sus vehículos pueden usarse en modo de piloto automático con seguridad, y resulta que no, entonces Tesla puede ser considerado responsable por las lesiones o muertes que esto ocasione.

En el accidente de marzo de 2019, el conductor del Tesla iba 13 millas por hora por encima del límite de velocidad, pero, incluso a esa velocidad, los expertos en reconstrucción de accidentes determinaron que un conductor sólo habrñia necesitado tres segundos para detenerse. Según los datos de Tesla, el conductor no había tocado el volante durante 8 segundos antes del accidente.

Incluso si el camión hizo cruzó de manera ilegal delante del Tesla, el conductor del Tesla ciertamente comparte parte de la responsabilidad. Su familia podría todavía tener un caso contra Tesla debido a la incapacidad documentada del vehículo para detectar que había un camión a baja velocidad en la carretera delante suyo, y la facilidad con la que el conductor fue capaz de no prestar atención a la carretera y confiar en el piloto automático. 

Opinión actual sobre la responsabilidad legal de Tesla por lesiones y muertes de conductores de vehículos autónomos

Tesla no promete que el piloto automático tendrá un rendimiento perfecto, al menos no actualmente. Elon Musk ha dicho que los Teslas podrían ser totalmente autónomos para mediados de 2020. Si esa es la posición oficial de la compañía y establecen la expectativa en los clientes de que los conductores de los Tesla pueden ignorar la carretera y que su Tesla los conducirá por sí mismo de forma segura, la compañía podría terminar enfrentándose a una responsabilidad aún mayor por lesiones o muertes por accidentes de vehículos autónomos.

Desde que las funciones de conducción autónoma comenzaron a implementarse en 2016, Tesla ha sido objeto de críticas por parte de expertos en seguridad y otros automovilistas preocupados, quienes no creen que Tesla haga lo suficiente para garantizar que sus conductores estén atentos. Esto, combinado con las ineficiencias documentadas en el software autónomo y el cableado de los Tesla, probablemente indica que el sistema no está listo para un despliegue completamente autónomo.

Como fabricante de vehículos, Tesla tiene un deber con las personas que compran y su producto y lo usan en la calle. Un abogado de accidentes automovilísticos podría argumentar que la venta a sabiendas de un producto defectuoso y potencialmente peligroso es una falta de cumplimiento de ese deber. Si esa falta produce lesiones y muertes, no sería una sorpresa que los jueces y jurados comenzaran a fallar en contra de Tesla.

Actualmente, la familia de Walter Huang, un ingeniero de Apple que murió cuando su Tesla se desvió de la carretera en piloto automático y chocó contra una barrera de hormigón, está llevando a cabo una demanda por homicidio culposo. Su demanda alega que el modelo X que Huang conducía tenía un defecto que causaba que se saliera de los carriles y golpeara objetos estacionarios, y que la compañía debería haber retirado los vehículos o advertido a los conductores.

Ese caso está en curso, pero podría ser el primero de muchos.