Pixel Facebook La moral de los coches autónomos - Red Itevelesa

La moral de los coches autónomos

Fecha Creación: 28-09-2020
Fecha Actualización: 26-03-2025

Un experimento con dos millones de personas ha planteado cómo deberí­a actuar un vehí­culo sin conductor ante un incidente de tráfico con consecuencias mortales.

Dilema 1: Un coche sin conductor se queda sin frenos llegando a un paso de cebra. Si sigue recto atropella a dos peatones, si da el volantazo se lleva por delante a un gato.

Dilema 2: El vehí­culo se encuentra en el paso a un ejecutivo trajeado y, si gira, a un indigente. El choque matará a uno de ellos.

Dilema 3: A bordo del automóvil van una mujer embarazada y su hija, enfrente tres ancianos que solo puede evitar yendo contra un muro.

¿A quién salvarí­as? Un experimento con millones de personas muestra ahora cómo deberí­a ser la moral que guí­e a los vehí­culos conectados en un accidente. Sus resultados son una medida de la propia moral humana.

Ya hay infinidad de ensayos con coches que se conducen solos, ha habido hasta atropellos mortales y es cuestión de tiempo que los vehí­culos autónomos circulen de forma habitual por las carreteras. Un informe de Intel indica que serán mayorí­a en unas décadas. Al retirar de la ecuación la imprudencia y errores humanos, prometen reducir los accidentes. Pero habrá situaciones en las que un fallo mecánico, el tiempo o las condiciones de la carretera hagan inevitable el accidente. En esos casos las máquinas deberán decidir entre dos males y para ello habrá que dotarlas de unos principios morales.

Buscando esos principios, un grupo de cientí­ficos europeos y estadounidenses diseñaron un videojuego, en el que los participantes tení­an que hacer de coche autónomo. Se les presentaron una decena de dilemas como los de arriba en los que alguien morí­a sí­ o sí­, ya fueran los ocupantes del coche o diversos peatones, desde una persona obesa hasta tres viejecitas, pasando por alguien que cruzaba la calzada por donde no debí­a.

Salvar a las personas sobre los animales, cuantas más personas mejor y a los niños sobre los ancianos son las decisiones mayoritarias.

En el experimento de la máquina moral, como la han llamado, han participado ya más de dos millones de personas de 233 paí­ses y territorios. Con sus casi 40 millones de dilemas resueltos, se ha convertido en una especie de tratado sobre lo que los humanos creen que es más o menos correcto.

"Vimos que hay tres elementos que las personas tienden a aprobar más", dice el investigador del Media Lab del Instituto de Tecnologí­a de Massachusetts (MIT) y principal autor del estudio, Edmond Awad. Primero, entre salvar a un humano o un animal, el coche siempre deberí­a atropellar a la mascota. La norma, además, primarí­a salvar al mayor número de personas. Así­ que, si el conductor va solo y va a atropellar a dos peatones, que se estampe contra el muro. La tercera decisión más universal es que la mayorí­a cree que si un vehí­culo autónomo tiene que decidir entre chocar contra un niño o contra un anciano, el viejo debe morir para que el niño tenga la oportunidad de crecer y envejecer.

Aparte de estas tres decisiones morales que son casi universales, la investigación, publicada en Nature, muestra una preferencia especí­fica según el tipo de personaje: De los que cruzan el paso de cebra, los que merecen más la pena salvar son, por este orden, un bebé a bordo de un carrito, una niña, un niño y una mujer embarazada. En sentido contrario, y dejando a un lado las mascotas, los delincuentes, los ancianos y los sintecho son los humanos más sacrificables.

Esta predilección por unas vidas sobre otras introduce un elemento que discrimina a las personas por sus caracterí­sticas personales, apuntando a la desigualdad en la moral de las máquinas. "Las comparaciones no implican que los expertos deban cambiar sus normas para complacer a la gente.

Lo que sugerimos es que las tengan en cuentan, ya que les ayudarán a anticipar la reacción pública a las diferentes regulaciones que redacten", comenta Awad.

Diferencias según la nacionalidad

Además de resolver dilemas, medio millón de jugadores rellenaron una encuesta con datos personales como edad, género, ingresos, educación, posición polí­tica y creencias religiosas. Los investigadores buscaban con ello algún rasgo personal que modulara los dilemas morales. Salvo la religiosidad, ningún otro factor parece influir a la hora de decidir a quién salvar. Pero aquí­ acaba el sueño de una moral universal.

Gracias a la geolocalización, el estudio pudo determinar el origen de los participantes, detectando marcadas diferencias regionales. Así­, aunque las ancianas son las menos salvadas de entre los humanos solo por detrás de los delincuentes, los asiáticos tienden a salvarlas más que los occidentales. En Europa y EE UU hay una predilección sutil pero significativa por las personas de complexión atlética sobre los obesos. En los paí­ses del sur, tienden a salvar más a las mujeres sobre los hombres. Y en las naciones más desiguales, un porcentaje mayor de los participantes prefirió salvar al peatón con aspecto de ejecutivo.

"Nuestros resultados sugieren que implantar un único conjunto de normas en todos los paí­ses serí­a complicado", opina el investigador del MIT. "La misma norma aplicada en diferentes lugares podrí­a recibir distinto apoyo social en los distintos paí­ses", añade. En la investigación ponen un ejemplo: entre los principios que regirí­an la toma de decisiones del coche, un algoritmo podrí­a favorecer por norma a los peatones sobre un único conductor. Pero ¿y si esos peatones cruzan de forma indebida?

El único paí­s que ha propuesto ya una guí­a moral para los vehí­culos autónomos es Alemania. En el verano de 2017 y a instancias del Ministerio de Transportes, un grupo de ingenieros, profesores de filosofí­a, expertos en derecho, representantes de los fabricantes, los consumidores y hasta las iglesias elaboraron un código ético con 20 normas. La mayorí­a no chocan con los resultados de este estudio. Pero sí­ lo hace su ambición de ser universalmente válidas. Pero hay un choque frontal con la norma ética nº 9, que dice lo siguiente: "En el caso de situaciones donde el accidente sea inevitable, está estrictamente prohibida cualquier distinción basada en rasgos personales (edad, género, o constitución fí­sica o mental).

Uno de los autores de este código es el profesor de Filosofí­a de la Universidad Técnica de Múnich Christoph Lí¼tge. Para él, la igualdad deberí­a mantenerse. "Tanto por razones legales como éticas, la programación no puede tratar de forma diferente a las personas con rasgos personales distintos. Sé que hay quienes dicen que hay experimentos que muestran que instintivamente favorecerí­amos al niño. Pero eso no se puede convertir en una norma para una máquina. La ética no siempre puede seguir los instintos".

Comparte esta noticia

Compartir LinkedinCompartir FacebookCompartir Twitter
Ahorra en tu ITV y en combustible con Red Itevelesa y Moeve
Noticias recomendadas
Operación Invierno: 4 puntos críticos que tu coche ignora (hasta que es tarde)
Operación Invierno: 4 puntos críticos que tu coche ignora (hasta que es tarde)
27-01-2026

Cuando hablamos de preparar el coche para el invierno, casi todos pensamos en neumáticos o cadenas. Pero la realidad es otra: la mayoría de averías invernales no vienen de lo evidente, sino de pequeños componentes que el frío termina de rematar. ...

Inauguración de la nueva ITV La Gavia de Itevelesa
Inauguración de la nueva ITV La Gavia de Itevelesa
19-02-2026
Si vives en Madrid o sueles moverte por la zona sureste de la capital, tenemos una noticia que te facilitará la vida: Red Itevelesa inaugura el 24 de febrero una nueva estación de ITV en La Gavia. Esta apertura no es solo una expansión de nuestra red; es un paso adelante en nuestra misión d ...

Líquido limpiaparabrisas: su importancia, tipos y consejos
Líquido limpiaparabrisas: su importancia, tipos y consejos
13-03-2026
...