¡Oye, qué pregunta interesante!
No lo creo. No tenemos la obligación de desarrollar el aprendizaje automático / IA hasta un punto en el que se considere que tiene conciencia o cualquier línea que dibujemos para distinguirlos como humanos. Como no tenemos ninguna obligación, ¿cómo puede una inacción ser inmoral?
Sin embargo, creo que estamos obligados a desarrollar el aprendizaje automático y la IA por diferentes motivos. Si optamos por crear solo sistemas que no intentan simular ser humanos y somos máquinas específicas para completar una tarea, la inteligencia artificial podría convertirse en un punto de inflexión en la historia: menos muertes prevenibles en carreteras o en hospitales, mejores técnicas de producción de alimentos para ayude a los países que luchan por alimentar a su gente, liberando el tiempo de la gente para centrarse en las cosas que mejor hacemos, como crear arte significativo o establecer negocios.
¡Creo que si la gente considerara a la IA como una herramienta y no como seres humanos jugando a Dios, realmente podríamos hacerlo para satisfacer nuestras necesidades y mejorar el mundo sin problemas éticos!
- ¿Será posible en el futuro transferir pensamientos y habilidades de una mente a otra?
- ¿Qué pasará después de 2099?
- ¿Puede alguien argumentar legítimamente que la escasez no es una conclusión inevitable en el siglo XXI?
- ¿Por cuánto tiempo en el futuro y por qué medios tecnológicos previsibles podrán los muggles replicar la magia de Harry Potter?
- ¿A quién le podemos vender una idea futurista?