¿Cómo aborda el automóvil autónomo de Google el problema del trolley en filosofía?

El problema del carro es un experimento mental en ética. La forma general del problema es la siguiente: hay un trolley fuera de control que se desliza por las vías del tren. Adelante, en las pistas, hay cinco personas amarradas e incapaces de moverse. El carro se dirige directamente hacia ellos. Estás parado a cierta distancia en el patio del tren, junto a una palanca. Si tira de esta palanca, el carro cambiará a un conjunto diferente de pistas. Sin embargo, observas que hay una persona en la vía lateral. Tienes dos opciones:

  1. No haga nada, y el carro mata a las cinco personas en la pista principal.
  2. Tire de la palanca, desviando el carro hacia la vía lateral donde matará a una persona.

¿Cuál es la elección más ética?

Fuente: Trolley problem – Wikipedia

El problema del trolley con respecto a los automóviles sin conductor es un tema candente para el debate y las discusiones. En una situación en la que el automóvil tiene que elegir entre un peatón y un pasajero (como el problema del tranvía), a quién deben programar los programadores el automóvil a elegir. ¿Cómo se enfrentan los desarrolladores, diseñadores y programadores con este dilema moral?

El problema del carro es bastante sencillo. El problema del trolley ha sido objeto de muchas encuestas en las que aproximadamente el 90% de los encuestados han elegido matar a uno y salvar a los cinco. Encuentro una versión diferente del problema del trolley, el problema del hombre gordo, más interesante y relacionado con los autos sin conductor.

Como antes, un carro se precipita por una pista hacia cinco personas. Estás en un puente por el que pasará, y puedes detenerlo poniendo algo muy pesado frente a él. Da la casualidad de que hay un hombre muy gordo a tu lado: tu única forma de detener el carro es empujarlo por el puente y meterse en la pista, matándolo para salvar a cinco. ¿Debes proceder?

Fuente: Trolley problem – Wikipedia

Hay algunos problemas con este problema:

Cuadro: maquina moral

  • El problema del carro se ocupa de dos resultados fijos. En el caso de los automóviles sin conductor, también hay un tercer resultado: frenar bruscamente; o incluso un cuarto resultado: desviar el vehículo a una ruta alternativa lejos de la carretera. Para relacionar el problema del trolley con la toma de decisiones de los automóviles sin conductor, necesitamos condiciones muy estrictas.

Chris Urmson, quien encabeza el proyecto de autos de auto conducción de Google, dice en una entrevista con el Washington Post:

“Quita algunas de las intrigas intelectuales del problema, pero la respuesta es casi siempre ‘frenando los frenos'”, agregó. “Tienes mucha más confianza en las cosas directamente enfrente de ti, solo por cómo funciona el sistema, pero también tu control es mucho más preciso al pisar los frenos que tratar de desviarte de todo”. Por lo tanto, tendría que ser una situación bastante extrema antes de que se convierta en otra cosa que no sea la respuesta correcta “.

  • Los autos de Google han corrido más de 1 millón de millas en el modo automatizado y, según se informa, no ha habido ningún accidente grave hasta el momento. Así que en realidad hay una posibilidad muy pequeña de que los autos requieran tomar esa decisión moral.

Urmson agregó que el sistema está diseñado para trabajar más duro para evitar a los usuarios vulnerables de la carretera (piense en los peatones y ciclistas), luego en otros vehículos en la carretera y, por último, en evitar las cosas que no se mueven.

  • El problema real del trolley es un escenario ideal donde la probabilidad de eventos es 1 o 0. Si no actúa, existe una posibilidad del 100% de que el trolley mate a las 5 personas. Y si presionas al gordo en la pista, hay un 0% de probabilidad de que el carro mate a las 5 personas. Esto no sucede en la vida real. Si un automóvil sin conductor tiene que elegir entre el pasajero y el peatón, debe considerar una multitud de factores. ¿Cuál es la probabilidad de supervivencia del pasajero si el automóvil evita al peatón? ¿Cuál es la probabilidad de supervivencia del peatón si el automóvil no lo evita? ¿A quién debe elegir matar el automóvil: un anciano o un niño, dos mujeres mayores o un médico joven en buena forma física o algo similar? Hay muchos escenarios complejos según las circunstancias que, en mi opinión, son demasiado complejos para que una máquina los resuelva. Los seres humanos, en las mismas circunstancias, tienden a ser decisivamente más pobres que las máquinas. Si no hay una solución a un problema, no sirve de mucho reflexionar sobre ese problema.

Urmson hizo hincapié en que los autos de Google no saben qué persona podría estar caminando en una acera o deambulando en un cruce de peatones. El automóvil no podrá decidir qué peatón tiene más sentido golpear en caso de una colisión inevitable.

“No es posible emitir un juicio moral sobre el valor de una persona individual y otra monja”, dijo. “Cuando pensamos en el problema, tratamos de convertirlo en un marco con el que realmente podemos hacer algo”.

Andrew Chatham, un ingeniero principal del proyecto en Google, dijo en una entrevista con Guardian:

“Lo más importante a tener en cuenta es que todavía tenemos que encontrar uno de estos problemas”, dijo. “En todos nuestros viajes, nunca hemos estado en una situación en la que tengas que elegir entre el cochecito de bebé o la abuela. Incluso si viéramos un escenario como ese, generalmente eso significaría que cometió un error un par de segundos antes. Y así, como ingeniero de software moral que entra a trabajar en la oficina, si quiero salvar vidas, mi objetivo es evitar que nos pongamos en esa situación, porque eso implica que cometimos un error.

  • Incluso si los autos están en una situación para tomar una decisión, e incluso si tienen la capacidad de hacerlo, y realmente toman la decisión, ¿toma una decisión moralmente correcta? El problema del trolley (o sus variantes) aún es discutible. ¿Cómo podemos programar una máquina para tomar una decisión moral cuando no existe un consenso moral existente entre los humanos?

Incluso si un auto-conducido se topa con una situación nunca antes vista donde tuvo que elegir entre dos escenarios de muerte accidental, e incluso si los frenos fallaron, e incluso si pudiera pensar lo suficientemente rápido para que la opción moral sea ​​un factor, no queda ningún acuerdo real sobre lo que debería hacer incluso en circunstancias idealizadas. – Andrew Chatham

El problema del trolley con respecto a los automóviles sin conductor es una cosa interesante para pensar y hablar, pero no creo que tenga ninguna aplicación práctica significativa. En realidad, hay un interesante proyecto del MIT llamado Moral Machine en el que puede examinar, juzgar e incluso diseñar circunstancias problemáticas de trolley y discutirlas.


Entrevistas completas: los autos autónomos no se preocupan por sus dilemas morales

El jefe de Google de los autos autoconductos minimiza “el problema del tranvía”

Este escenario es demasiado hipotético para que Google [o cualquier otra empresa que trabaje en el proyecto] lo maneje en su proyecto de auto-manejo de autos. En primer lugar, el coche no elegiría arbitrariamente qué camino tomar. Se conectará a Google Maps o algo que le dirá exactamente qué turno tomar. En segundo lugar, en el problema original, no era un automóvil, sino un carrito, que no puede detenerse. Un auto que conduce solo se detendría si ve obstáculos frente a él.