De cómo elegir a nuestros muertos a cómo cuidar de los vivos.

Sira Abenoza

Foto: Enfermeras frente al coronavirus/John Mage

A mediados del siglo pasado, Philippa Foot acuñó uno de los experimentos de pensamiento más famosos de la historia: el dilema del tranvía (the trolley problem). Se trata de un dilema moral en el que tenemos que imaginar que un tranvía se acerca fuera de control por una vía en la que hay cinco personas atadas y que, si nadie lo detiene, las matará. La única alternativa que tenemos es presionar una palanca para que el tranvía cambie de vía y vaya por otra donde solo hay una persona atada. La pregunta es qué hacemos.

¿Dejamos que el tranvía siga por su vía y mate a cinco personas o presionamos la palanca para que mate solo a una? Para la mayoría de gente la respuesta es inmediata y obvia: prevalece el utilitarismo, mejor matar a una persona que a cinco. Su autora, en cambio, no estaba de acuerdo con esta solución.

Para la mayoría de gente, la solución al dilema del tranvía es el utilitarismo

De este experimento se han hecho decenas de variantes –entre otras, desde el hombre gordo encima del puente que ve la escena y que, si le empujamos para que caiga en la vía, puede servir como bulto para detener el tranvía, hasta la posibilidad de la vía alternativa que es circular y confluye con la principal donde están los cinco cuerpos. Incluso ha inspirado libros como Would you kill the fat man? y promovido una 'disciplina' llamada trolleology

Pero no solo eso. Un equipo de profesores del MIT, en 2016, lanzó la Moral Machine, que también ha utilizado la base del mismo dilema para que millones de personas en el mundo dieran sus respuestas a decenas de variaciones del trolley problem y así analizar si la respuesta que le damos obedece a factores religiosos, políticos, sociales, culturales u otros.

Las respuestas al dilema del tranvía varían en función de la cultura y no de la edad, educación, género o clase social

En 2018 publicaban un artículo en la revista Nature donde explicaron que las respuestas variaban en función de la cultura y no de la edad, educación, género o clase social. Así definieron varios cluster con perfiles de respuesta semejantes: Western cluster (Norteamérica y parte de Europa); Eastern cluster (países confucianistas y algunos islámicos); y Southern cluster (América latina y central).

Con ello, buscaban contribuir a determinar de qué forma deben actuar los vehículos autónomos y otras máquinas con inteligencia artificial –esto es, a quién deben proteger y a quién desproteger, 'matar' o 'dejar morir', ante una posible colisión, accidente u otros.

Moral Machine
La Moral Machine explora numerosas variaciones del dilema del tranvía con millones de personas en el mundo (Foto: Moral Machine/MIT)

El dilema de Foot, que mañana podría llegar a condicionar cómo se comportan las máquinas, en su origen, fue bélico. Se inspiró en los dilemas surgidos durante la Segunda Guerra Mundial, cuando Hitler iba a ordenar lanzar bombas a Londres y el gobierno británico debía decidir si intentar, gracias al doble espionaje, convencer a Hitler de que los cohetes sobre los que quería explosionar sus bombas no se encontraban en el centro de Londres, donde residía el poder, sino en zonas suburbiales. Es decir, el gobierno británico debía decidir a quien 'mataba' o 'dejaba morir' y a quién salvaba.

Estos dilemas, es obvio, son en su esencia muy parecidos a los dilemas bioéticos a los que se enfrentan los médicos cada uno de estos días o, incluso, cada una de estas horas. ¿A quién dejo morir?

El dilema del Gobierno británico, el de Philippa Foot y el de MIT, a fin de cuentas, van a lo mismo: en una situación donde me veo forzado a elegir entre la vida de unos y otros, qué elijo; a quién salvo y a quién dejo morir. ¿Tengo predilección por los más jóvenes o por los mayores? ¿Por los humanos o por las otras especies? ¿Por los hombres o por las mujeres? (Estas son preguntas que nos hace la Moral Machine si decidimos contribuir a su experimento).

Las respuestas a los dilemas éticos no son un juego o un experimento sino una triste realidad

Pero estas preguntas, cuyas respuestas en el presente no son un juego o un experimento sino una triste realidad, y que en el caso de los médicos deben ser formuladas idealmente en comité; estas preguntas, decía, en realidad esconden una larga concatenación de decisiones previas que las exceden: en qué condiciones se encuentra la sanidad pública hoy, cuánto hemos invertido en ella en los últimos años, qué caso le hemos hecho a las alarmas de los científicos una vez empezamos a escuchar los casos de China, Irán, y etc.

Esto es, los médicos se encuentran en el frente de batalla porque muchos otros previamente se pelearon hasta el punto de que estalló una guerra –para seguir con la pesada jerga bélica que estamos usando estos días de virus.

Nurses coronavirus
Una doctora durante la pandemia de Covid-19 en abril de 2020 (Foto: Vinh Dav/iStock)

Y si vamos a los otros ejemplos, la pregunta por 'quién dejo morir' tiene también muchas cuestiones previas. En el trolley experiment nos preguntaríamos, quizás, qué narices hacen esas personas atadas. ¿Cómo ha podido ocurrir eso? En el caso de la Segunda Guerra Mundial, tal vez: ¿podemos lograr que no se lancen esas bombas? ¿Se pueden desalojar las zonas amenazadas antes de que el misil llegue?

Lawrence Kohlberg, el psicólogo americano conocido por su teoría del desarrollo moral, les presentaba a sus encuestados el dilema de Heinz, donde un marido debe decidir si robar una farmacia o no para lograr suministrarle a su mujer la medicación que no puede pagar y que necesita para no morir.

De nuevo, un pesado dilema entre dos males –por eso es un dilema–, que se presentaba y afrontaba con un blanco o negro, A o B. En este caso, el objetivo era definir qué grado de desarrollo moral tenía el encuestado; en los dilemas de Philippa Foot o del MIT, lo que se busca es más bien entender la teoría moral o ética del que responde. 

Carol Gilligan, filósofa y psicóloga estadounidense y discípula de Kohlberg, cuando empezó a leer los resultados del trabajo de su maestro, gradualmente fue sintiendo que algo no encajaba. Las mujeres a menudo salían con un grado de desarrollo moral menor porque cuestionaban el dilema y sus opciones.

Carol Gilligan descubrió que las mujeres a menudo salían con un grado de desarrollo moral menor porque cuestionaban el dilema y sus opciones

Ellas no creían que hubiera que robar o matar; defendían que tenía que haber soluciones mejores. A partir de ahí, Gilligan inició una investigación sobre las diferencias entre niños y niñas y se encontró con que, en general, por una cuestión educativa y no biológica, mientras los niños eran de 'sí' o 'no', las niñas buscaban terceras vías, alternativas mejores.

Ante esta constatación, la filósofa acuñó el término de la different voice, que describía la forma de ver el mundo y de relacionarnos con los demás que ha sido tradicionalmente, debido a la educación recibida, ejemplificada por mujeres, pero que en realidad, según Gilligan, todo ser humano lleva dentro: la ética del cuidado, la voz que se preocupa ante todo por buscar las mejores alternativas y por proteger al otro.

Pero volvamos al principio. El Gobierno británico, Philippa Foot, los millones de personas que han respondido a la Moral Machine, y miles de médicos hoy, se están preguntando: a quién 'mato' o 'dejo morir', a quién protejo o 'salvo'. Esa es, naturalmente, no solo una pregunta pertinente sino que, además, cuando responde a la realidad, debe ser respondida y rápido. Pero, como decían las niñas enojadas ante los dilemas que les presentaba Gilligan: ¿es que no hay una opción mejor?

En el campo de batalla, probablemente no la hay. Es decir, uno tiene que decidir a 'quién deja morir' y a 'quién salva', por cruel que sea, por mucho que nos enoje. Pero quizás ese enojo debe servirnos para darnos cuenta, como nos hacían notar las niñas, que debe haber opciones mejores. Y esas opciones mejores pasan por no ver ni entender la ética como un experimento de pensamiento con respuesta A o B, casi como un juego de sobremesa, sino como aquello que debe ayudarnos a tomar las mejores decisiones previas que nos eviten tener que llegar a preguntarnos: a 'quién mato' o 'dejo morir' y a 'quién salvo' o 'dejo vivir'.

Todo el contenido está disponible bajo la licencia Creative Commons Reconocimiento 4.0 Internacional.