Si se crea una IA muy avanzada capaz de simular emociones humanas, ¿sería moralmente incorrecto dañarla?

Absolutamente sería exactamente tan incorrecto lastimarlo como lo sería herir a un humano en circunstancias similares.

Hablemos por un minuto acerca de lo que se conoce como el zombi filosófico .

Un zombi filosófico es un ser hipotético que parece tener sensibilidad, pero que simplemente toma esa apariencia como una ilusión.

En este caso, si crees que una IA avanzada que simula emociones humanas no las siente realmente, dicha IA se consideraría un zombi filosófico.

Dicho esto: si aplicas este razonamiento a una IA o a cualquier otra cosa que se considere un zombie, entonces es mucho más difícil demostrar de manera concluyente que todo no es un zombie. No hay, en mi opinión, ninguna forma de probar de manera concluyente que cualquier persona dada en el mundo que parezca consciente es realmente consciente. Sin embargo, la mayoría de las personas lo toman como un artículo de fe, porque considerar lo contrario es caer en un mundo de solipsismo, donde los propios sentimientos, los únicos que uno puede percibir directamente como reales, son los únicos que se consideran importantes.

Creo que construir una excepción para las IA o cualquier otra clase de seres aparentemente sensibles, donde “parece que tiene sentimientos”, es volver a caer en un precedente destructivo que en el pasado ha perjudicado a todos los demás fundamentos de la ética sonora. .

No. Hay una respuesta a continuación sobre zombies filosóficos y es un punto justo, pero es importante entender cómo funcionaría una IA

Todos los sistemas informáticos están completamente basados ​​en reglas, si x hace y. Sin embargo, los humanos tienen sistemas como, si x siente y, si siente y hace z. El sentimiento actúa como un factor motivador, mientras que las computadoras no necesitan motivación. Pero quizás alguien lo intente como un experimento sin sentido. Incluso entonces, la computadora no siente una oleada de endorfinas o algo así para alterar su cerebro de alguna manera, su “cerebro” se mantiene constante todo el tiempo. Así que todo lo que podría hacer es simular las emociones pero no sentirlas, que es lo que la pregunta dice de todos modos. En cuyo caso no podría ser “herido”.

Sería moralmente incorrecto herirlo, pero también sería imposible.

Edit: he sido corregido, ignorame

El estado actual en el que se encuentra la IA, ya es capaz de dañar a los humanos. Sin embargo, muy lejos de ser herido, ya que es demasiado inteligente.

Listo sobre Tay de Microsoft y Zo de Facebook

Ummm probablemente, porque ‘muy avanzado’ podría significar que decidiría comenzar a herir tus emociones de nuevo. No quiero estar en el extremo equivocado de eso.