A los humanos nos gusta tener las cosas bajo control, o más bien pensar que las tenemos bajo control. Aunque la probabilidad de tener un accidente en coche es muy superior a la de tenerlo en avión o en tren, el coche no seguirá pareciendo más seguro. Ni más ni menos que porque somo nosotros mismos los que llevan las manos al volante. En un avión dependemos de un tercero (el piloto) que a su vez se basa en un complejo entramado denominado «espacio aéreo» que gestionan controladores y multitud de sistemas informáticos.
Quizás habría que matizar el tema del piloto, porque salvo en el momento del despegue y el aterrizaje, es más que probable que el que pilote la aeronave no sea una persona sino un sistema automático cada vez más perfeccionado. Los aviones son el vehículo perfecto para experimentar con un sistema experto. Una vez alcanza la altitud de vuelo existe una ruta predefinida despejada para ese avión en concreto, y no es de esperar ningún obstáculo en el cielo más allá de las inclemencias meteorológicas. En situaciones complejas es el piloto el que toma el control, dejando paso a la impredecibilidad de la inteligencia humana y sortear el momento de peligro.
Aun así es sorprendente cómo cada vez se van reduciendo más los grados de libertad del piloto dejando en manos de los automatismos un mayor número de decisiones. Los aviones más modernos intentan detectar maniobras peligrosas del piloto y corregirlas a tiempo. Y es que todos recordaremos el accidente aéreo del vuelo 447 de Air France que hacía la ruta Río de Janeiro – Paris y que calló misteriosamente al Océano Atlántico. El estudio posterior de las cajas negras, que por cierto tardaron meses en localizar, concluyó que el sensor que medía la altitud se congeló, dejando de funcionar correctamente. En ese momento estaba de guardia precisamente el copiloto con menos horas de vuelo, que al ver lo que indicaban los instrumentos pensó que el avión estaba cayendo. Su reacción inmediata fue tirar de los mandos para elevar el avión a la altitud a la que debería ir. Lo hizo tan bruscamente que después fue incapaz de recuperarlo y la aeronave simplemente cayó en picado y se hundió en el océano con todo el pasaje.
En el ámbito ferroviario lamentablemente también existen multitud de ejemplos. El que acaeció el 24 de julio de 2013 en España fue uno de los accidentes de tren con mayor número de víctimas de Europa. La investigación concluyó que se debió a un exceso de velocidad que provocó el descarrilamiento del tren en una curva. También se comprobó que la vía no disponía de los sistemas de seguridad necesarios para detectar el exceso de velocidad del tren y obligarle a frenar de manera automática.
En todos los casos se trata de un trabajo conjunto hombre-máquina de ayuda a la toma de decisiones o de delegación total del control de la máquina. En cualquier caso esta toma de decisiones facilitada por una serie de instrumentos que se basan, a su vez, en interpretar los datos que le llegan de diferentes sensores. En un coche también hay multitud de sensores: presión de los neumáticos, velocidad, nivel de combustible, frenada brusca, lanzar los airbag… Es posible que no sean tantos sensores como en un avión, pero es también muy complejo.
En donde gana en complejidad el coche es cuando queremos que el vehículo sea totalmente autónomo. Conseguir esto implicará un importante cambio, y no sólo a nivel de comodidad. Imaginemos un futuro en el que los taxis funcionen solos, los camiones lleven mercancías de un punto a otro sin necesidad de conductor lo los autobuses circulen de manera automática por las ciudades. Las implicaciones económicas que tiene esto son enormes, especialmente por la gran cantidad de puestos de trabajo que se perderán. Este vídeo es muy esclarecedor. Se titula «humans need not apply», y relaciona una serie de puestos de trabajo que desaparecerán en los próximos años, entre ellos muchos vinculados con el transporte de personas y mercancías.
Y es que la conducción autónoma por parte del vehículo ya no es ficción, ni proyectos de futuro. Es una realidad que ya circula por algunas carreteras. Google lleva ya unos años trabajando en una tecnología de coche autónomo. Tesla incorpora un sistema de piloto automático que funciona, especialmente en autopistas y en situaciones de poco tráfico. Otros fabricantes dicen también estar trabajando en ello.
El caso de Tesla es especialmente interesante, porque es el primero que se ha atrevido a ponerlo en la calle. Ha sido un gran avance, pero ya se ha cobrado su primera víctima, precisamente la de un ferviente promotor de esta tecnología. Dicen que cuando ocurrió el accidente estaba viendo una película, aunque creo que las noticias respecto a eso son confusas. De hecho llegué a ver publicado durante unas horas en El País que «el dueño del tesla accidentado estaba viendo Harry Potter», algo que luego se transformó en «estaba viendo una película».
A raíz de este tema se han publicado otros artículos sobre si son o no son seguros estos vehículos. La respuesta evidente es la de siempre: mientras sean más seguros que cuando los conduce un humano estará bien. Y esto parece que se cumple: no se duermen, no usan el móvil al volante, no están cansados, etc. Pero la cuestión que más me ha llamado la atención ha sido este artículo en el que se hablaba de «la ética del coche autónomo». El titular del artículo es de lo más provocador: «¿Comprarías un coche que elegirá matarte para salvar otras vidas?». Imaginemos que el coche autónomo se encuentra ante un accidente en el que puede elegir entre tres posibles decisiones, y las tres decisiones implican la muerte de alguien. ¿Salvará al conductor? ¿Esquivará el carrito del bebé con el que va a chocar para estamparse contra una mesa en la que hay una pareja tomando café? ¿Intentará salvar a tu hijo a toda costa?