“Parar de investigar el coche autónomo por los accidentes sería un gran error”

Tu vehículo te recoge en la puerta de casa y te lleva a tu destino respetando las señales de tráfico y evitando cualquier percance mientras tú lees, ves una película o echas una cabezadita. Los fabricantes que están pisando el acelerador del coche sin conductor pretenden que ese sea el futuro. Sin embargo, dos accidentes han hecho saltar las alarmas y han puesto los avances de este sector en entredicho.

Hace menos de un mes, un vehículo autónomo de Uber en pruebas atropellaba mortalmente a una mujer que cruzaba indebidamente una carretera. A los pocos días, el conductor de un Tesla Model X fallecía en otro siniestro cuando el piloto automático estaba activo. 

Teniendo en cuenta que cada año mueren casi 1,3 millones de personas en accidentes de tráfico, que el 94 % de los accidentes mortales en Estados Unidos se puede vincular a un error humano o que, en España, al menos un 45 % de los accidentes podrían prevenirse si los conductores estuvieran más atentos, conviene analizar estos tráficos sucesos con detenimiento antes de sacar conclusiones. 

El siniestro de Uber, un misterio sin resolver 

El monovolumen de la marca Volvo circula a 61 kilómetros por hora sin que nadie le diga lo que debe hacer. De hecho, el conductor de seguridad que debe vigilarle está mirando hacia abajo. De repente, una mujer aparece en mitad de la noche, cruzando por en medio de la carretera con una bicicleta. Así ha podido verse en las imágenes captadas por las cámaras del coche autónomo en pruebas de Uber segundos antes del impacto. Sylvia Moir, la jefa de policía de Tempe (Arizona), donde tuvo lugar el suceso, aseguró al día siguiente que también hubiera sido difícil de evitar para un conductor humano.  difícil

Las consecuencias fueron inmediatas: Uber suspendió sus pruebas en Arizona (donde ni siquiera se exigía que hubiera un conductor de seguridad) y el gobernador también lo hizo oficialmente. La investigación de las autoridades sobre las causas del siniestro continúa abierta, pero por el momento el gigante del ridesharing ya ha llegado a un acuerdo con la familia de la mujer fallecida.

El gran misterio ahora es descubrir qué pudo fallar para que el coche autónomo, teniendo en cuenta que sus sentidos le permiten ver a distancia pese a la oscuridad, le permiten ver a distanciano reaccionase. “Debería haberlo detectado con los sensores que tiene, pero es un coche en pruebas y pudo haber miles de cosas que pudieron suceder para no detectarlo”, ha explicado Fernando García, investigador del Laboratorio de Sistemas Inteligentes de la Universidad Carlos III de Madrid, en la sección de Hoja de Router en el programa de radio Carne Cruda.

A su juicio, una de las posibilidades es que el fallo se produjera al interpretar las intenciones del peatón: identificar, por ejemplo, si se disponía a cruzar la calle. “Se intenta investigar mucho en que el coche prediga ese comportamiento”, afirma García. “Estamos intentando ver que el coche detecta a esa persona que hay cerca de un paso de peatones”. 

Infrarrojos, cámaras, ultrasonidos, radar, lídar, GPS… Son muchos los sensores que incorporan los coches autónomos para detectar los elementos de su entorno. Sobre todo uno como el de Uber, al que se suele ubicar entre los niveles 3 y 4 de automatización que fija la Sociedad de Ingenieros de Automoción (la autonomía total no llega hasta el 5, cuando el coche es capaz de circular sin ayuda por cualquier vía y en cualquier situación).

El lídar, un dispositivo rotatorio montado sobre el techo, proyecta haces de luz láser que, al rebotar, ofrecen información sobre la distancia a la que se encuentran los objetos. Así, el coche es capaz de ver lo que le rodea incluso en la más completa oscuridad. En concreto, el de Uber era un lídar de VelodyneUber era un lídar de Velodyne, la empresa que hasta la fecha domina la venta de este tipo de sensores.

Marta Hall, presidenta de la compañía, se ha apresurado a decir que su lídar es “capaz de obtener claramente imágenes de Elaine y su bicicleta en esa situación”, pero que su sistema no es el que toma la decisión de frenar. Eso le corresponde al 'software' de Uber. En cualquier caso, se trataba de un vehículo en pruebas. “Por eso tiene una persona al volante que debería haber estado pendiente y evitado que sucediera”, puntualiza García.

Los coches de Google, ¿más seguros?

Pese a ello, hay quien se ha atrevido a decir que el accidente no hubiera sucedido si su coche hubiera circulado en ese instante por la carretera de Tempe. El CEO de Waymo, John Krafcik, afirma estar seguro de que uno de sus vehículos autónomos hubiera manejado la situación para evitar un atropello como el de Uber.

Hace unos meses, los coches de la compañía propiedad de Alphabet, que se sitúan en el nivel 4 de automatización (es decir, pueden circular sin ayuda en todo momento si cuentan con la información necesaria sobre el entorno y el trazado), fueron los primeros que empezaron a recorrer Arizona sin conductor de seguridad.

Google fue la compañía tecnológica que más pronto decidió apostar por los vehículos autónomos: desde 2009, sus coches han recorrido más de ocho millones kilómetros en carreteras, sin contar con los 4.000 millones por los que han circulado en entornos de simulación.

Aunque sus vehículos también han sufrido percances menores, no han estado involucrados en ningún accidente mortal. Además, la última ocasión en la que la compañía admitió públicamente que uno de sus vehículos tenía parte de responsabilidad en un choque sin heridos fue en 2016. “Waymo demuestra con tantas millas ya recorridas sin accidentes graves que los coches autónomos son posibles con un alto grado de seguridad”, defiende García. 

Ahora bien, si los coches pueden entrenarse en entornos simulados o en circuitos cerrados, parece lógico preguntarse por qué decenas de fabricantes han decidido que sus ruedas vayan sobre el asfalto de las carreteras públicas en algunos lugares de Estados Unidos o en países e Europa.

“Si metes un coche en un entorno bastante controlado, los coches son capaces de tener una seguridad bastante alta en cuanto a los objetos que se van a encontrar porque es muy predecible. La tarea de los investigadores es sacarlos a entornos más complejos para entrenarlos en todo tipo de situaciones. Es muy importante hacer miles y miles de kilómetros”, defiende el investigador de la Universidad Carlos III de Madrid.

Aunque en Estados Unidos pisaran antes el acelerador de los coches sin conductor, la Unión Europea también está avanzando en la materia. Hace unos meses, Alemania se convirtió el primer país en permitir legalmente la circulación de vehículos autónomos siempre y cuando haya ante el volante un conductor por si hace falta que tome el control, una condición que también fija la DGT para realizar pruebas en España. “En Europa hemos sido bastante más garantistas con la seguridad y restrictivos, y eso que hace vayamos un poco más lentos y se esté haciendo todo con más cuidado”, opina García.

Tras el accidente del coche de Uber, expertos como Amnon Sashua, director ejecutivo de Mobileye, una compañía de software para vehículos autónomos de Intel, han reclamado un “marco de validación de seguridad para vehículos autónomos” ante el temor a que la regulación reactiva suponga un freno a los avances.

“Era un accidente muy difícil de evitar incluso para un conductor humano, así que parar toda la investigación en coches autónomos por esto sería un error bastante grande y, de igual forma, culpar a los coches autónomos también sería en mi opinión un error”, sentencia García. 

El accidente del coche (no autónomo) de Tesla

La preocupación por los coches autónomos se avivó hace unos días con el segundo accidente mortal, provocado por un coche con piloto automático de Tesla. Un ingeniero de Apple fallecía después de que su vehículo, con el famoso Autopilot activado, se estrellara contra una barrera y se incendiara en Mountain View (California).

El coche de Tesla es semiautónomo: encaja en el nivel 2 de la citada clasificación. Por eso, la empresa advierte en sus manuales de usuario que los conductores deben permanecer en todo momento con las manos sobre el volante.

Según la propia compañía, las manos del fallecido dueño del vehículo no fueron detectadas sobre el volante seis segundos antes del accidente, y el conductor recibió alarmas acústicas y visuales para advertirle de ello. La Junta Nacional de Seguridad del Transporte (NTSB, por sus siglas en inglés), la agencia gubernamental dedicada a investigar esos sucesos, ha reprendido a Tesla por compartir estos detalles para descargarse de responsabilidad y ha comenzado una investigación.

Pese a ello, el gigante liderado por Elon Musk sufrió un estrepitoso batacazo en bolsa tras el accidente. No es la primera vez. En 2016, un conductor de un Model Tesla S falleció después de que su coche impactara contra un camión. Los sensores fueron incapaces de evitar al accidente y el conductor tampoco llevaba las manos sobre el volante. En la investigación, la NTSB señaló que el sistema de Tesla daba demasiada manga ancha al conductordemasiada manga ancha para desviar su atención por mucho que emitiera esas alertas.

En lugar de buscar la autonomía completa, como otros fabricantes, Tesla decidió vender directamente sus coches con piloto automático. Los de Elon Musk optaron por comercializar sus vehículos sin lídar, rodeándolos con ocho cámaras más asequibles para “ser el primero”, pero eso hace que el sistema sea “menos fiable”, por lo que siguen necesitando la supervisión continua del conductor. “La razón principal por la que no llevan el lídar es el precio. Estos sensores son bastante caros”, detalla García. “El lídar que lleva Uber cuesta unos 8.000 dólares”. 

Que Tesla llegue a desarrollar un coche completamente autónomo sin lídar parece otro cantar, ya que muchos expertos defienden que, aunque el sensor no es perfecto (no funciona bien con nieve o lluvia intensa) y no puede ser el único del coche, sí será necesario.

Además de mejorar técnicamente, hay que tener en cuenta que también será necesario enseñar ética a los vehículos. Por ejemplo, ¿debe el coche salvar al peatón o al conductor que lo ha comprado? “En el diseño del software del coche se habrá tenido que incorporar algún aspecto de decisión que tenga que ver con aspectos éticos”, explica Ramón López de Mántaras, director del instituto de Inteligencia Artificial del CSIC. “Hay varias alternativas. Hay quien dice que tiene que ser una decisión aleatoria, una función de utilidad… y ahí se podrían determinar cosas como atropellar a una persona o atropellar a varias, minimizar el número de víctimas...

Aunque, lógicamente, aún hay retos por delante para lograr que los coches autónomos sean totalmente seguros, lo cierto es que, cuando suceda, tienen potencial para salvar miles de vidas.  “La ventaja principal que no debemos olvidar nunca, y que es a lo que tendemos la gente que trabajamos en esto, es que no buscamos reducir trabajo, lo que buscamos es cero accidentes, evitar los posibles errores humanos que podamos tener en la conducción y que no tengamos tantas muertes en las carreteras”, sentencia García.  

----

Las fotos son propiedad, por orden de aparición, de Wikimedia Commons, Ford y Mark Doliner (Visual Hunt).