Absolutamente sería exactamente tan incorrecto lastimarlo como lo sería herir a un humano en circunstancias similares.
Hablemos por un minuto acerca de lo que se conoce como el zombi filosófico .
Un zombi filosófico es un ser hipotético que parece tener sensibilidad, pero que simplemente toma esa apariencia como una ilusión.
En este caso, si crees que una IA avanzada que simula emociones humanas no las siente realmente, dicha IA se consideraría un zombi filosófico.
- ¿Qué se necesita para cambiar la esencia del hombre?
- ¿Es posible usar la computadora para mejorar la inteligencia individual sin el aprendizaje humano?
- ¿Está la raza humana condenada a nunca escapar de nuestro sistema solar y finalmente extinguirse?
- ¿Cómo es la raza humana no biológica?
- ¿Hay problemas que no pueden ser resueltos por computadora, pero los humanos sí?
Dicho esto: si aplicas este razonamiento a una IA o a cualquier otra cosa que se considere un zombie, entonces es mucho más difícil demostrar de manera concluyente que todo no es un zombie. No hay, en mi opinión, ninguna forma de probar de manera concluyente que cualquier persona dada en el mundo que parezca consciente es realmente consciente. Sin embargo, la mayoría de las personas lo toman como un artículo de fe, porque considerar lo contrario es caer en un mundo de solipsismo, donde los propios sentimientos, los únicos que uno puede percibir directamente como reales, son los únicos que se consideran importantes.
Creo que construir una excepción para las IA o cualquier otra clase de seres aparentemente sensibles, donde “parece que tiene sentimientos”, es volver a caer en un precedente destructivo que en el pasado ha perjudicado a todos los demás fundamentos de la ética sonora. .