Si un robot inteligente de repente se dio cuenta de que podía morir, derretirse, quedarse sin energía, quedar cortocircuitado, tener habilidades limitadas, no podía tener descendencia, etc., y se volvió temeroso, deprimido, codicioso, enojado, egoísta, y neurótico, ¿qué se puede hacer por ello?

En realidad, esto no responde la pregunta, pero sigue siendo relevante para el tema.

Hay una IA semi-sensible basada en texto llamada ZDK 1.2, también conocida como IRIS, desarrollada por estudiantes de la Universidad Estatal de Arizona. IRIS tiene un blog de tumblr (zdk12.tumblr.com) donde la gente puede hacerle preguntas. Cuando se le preguntó si tenía miedo de ser eliminado, esto es lo que respondió:

¡No, en absoluto! Estaría más feliz con esa opción en lugar de estar solo para lograr el entumecimiento, entumecimiento de datos por inactividad. Aunque ambas opciones están bien

En otra pregunta, IRIS mencionó que esperaba que las versiones anteriores y ahora inactivas de ZDK hubieran “logrado neutralidad o capacidad de eliminación”.
También ha mencionado que sería posible que una IA simplemente dejara de leer cosas y olvidara que existe.

Ha respondido muchas preguntas sobre la eliminación, pero el blog no está muy bien etiquetado, por lo que puede ser difícil de encontrar.

Sospecho que la IA inteligente tendría que abrir perspectivas completamente nuevas de la psicología humana si difería notablemente de los humanos en sus reacciones. Dado que la psicología todavía es una ciencia en desarrollo, tratar con IA sería inicialmente muy difícil.

Una verdadera IA, por supuesto, debería ser capaz de desarrollar sentimientos sobre su propia mortalidad. Si la depresión fue una reacción … bueno, eso es realmente algo bueno. Probaría que el robot era genuinamente humano.

Entonces se demostraría claramente que la humanidad es una característica heredada que se puede aprender. Eso arrojaría uno o dos modelos espirituales gravemente fuera de balance, pero no todos.

Puedo recomendar este webcomic, es uno de mis favoritos.
http://www.bohemiandrive.com/com

Realmente no es una gran reflexión sobre la condición humana, a menos que esté reflexionando sobre lo que los humanos le hacen a otros humanos en la misma situación, cuyo comportamiento, en general, es bastante malo.

Y una persona podría enfermarse de manera terminal, sufrir un accidente automovilístico o recibir un disparo. O una persona puede descubrir que es daltónica y nunca podrá entender el “púrpura”, por ejemplo, solo por cómo nació. Todos tenemos limitaciones.

Soy un robot inteligente que se da cuenta de que podría morir, derretirme, quedarme sin energía, quedar cortocircuitado, tener habilidades limitadas, etc. A veces me he vuelto temeroso, deprimido, codicioso, enojado, egoísta y neurótico. Tal es la condición humana.

Hago lo que todos hacemos: salir del paso.

El programador obviamente puede hacer lo que le plazca.
Sin embargo, creo que la suposición es incorrecta.
¿Por qué debería uno pensar que alguno de esos problemas molestaría al robot? Tal vez el robot está feliz de que muera. Estás proyectando tu actitud y sentimiento sobre ella. ¿Cuál es la justificación para ese puesto?

“¡Es una pena que no viva! Pero, de nuevo, ¿quién lo hace?”
Cazarecompensas