Probablemente preocupa a alguna persona, siempre lo hace.
Pero permítame hacerle una pregunta: ¿confiaría en su médico cómo reparar su automóvil?
Por mi parte, no es probable. Y lo mismo sucede con los teóricos de la física que hablan de la IA, o de cualquier otro campo. Admito que viene de un campo que sabe lo que es desarrollar métodos que nos permitan eliminarnos a todos (después de todo, ¿no ayudó Einstein a los Estados Unidos a desarrollar la bomba atómica?), Pero también debería recordar que junto con su mal El potencial de cualquier campo es el auto equilibrio y más bueno que malo sale de él.
La proyección de Hawkins y la sensación de que al entrometernos en la IA solo estamos creando una nueva criatura también me demuestra que no entiendo lo que realmente está sucediendo en este campo de investigación o incluso su progreso actual. La investigación de inteligencia artificial en su mayor parte no solo está muy lejos de tal cosa que puede producir algo que tendría el requisito de decidir eliminarnos a todos, sino que también es muy poco o nada lo que está trabajando en serio hacia esa entidad.
- Si siempre puede decidir cuál de las dos cosas es moralmente más incorrecta, ¿cuál es la más moralmente incorrecta?
- ¿Es inmoral la circuncisión infantil por violar la personalidad?
- ¿Cómo vemos realmente las cosas?
- Si accidentalmente mataste a un millón de personas (y podría probarse), ¿qué te sucedería?
- ¿Los padres de Muhammad irán al cielo o al infierno?
Supongamos que hacemos un programa inteligente, este programa se haría para cumplir un propósito. ¿Por qué necesitaría un motivador que pueda llevar a una conclusión tan extrema? ¿Auto preservación? No veo cómo sería necesario ni realmente relevante. Este es solo un programa que puede duplicarse fácilmente y la muerte no es realmente una amenaza para él, por decir. Además, como herramientas de diseño de investigación de AI, ¿por qué aprovecharíamos esta oportunidad para poner esa amenaza a nosotros? …
Luego viene la forma en que funciona la investigación, especialmente cuando se trata de sistemas complejos que aún desarrollamos para mantener nuestra comprensión (después de todo lo que queremos entender, no crear por el simple hecho de ser pequeños dioses). La posibilidad de pasar de las cosas que tenemos a algo que presentaría una amenaza global sin muchos pasos crecientes es casi nula (Roma no se construyó en un solo día …). Por lo tanto, es más probable que progresemos de algo que representa una pequeña amenaza, a un poco más, … hasta que las personas se den cuenta de que tales problemas deben solucionarse rápidamente. Nuevamente se puede hacer un buen paralelo con la forma en que manejamos las armas nucleares. Todavía puede limpiar nuestro planeta, pero no sucedió gracias a la conciencia global y las reglas internacionales (explícitas o de otro tipo).
De nuevo, estas son muchas cosas que, a pesar de ser increíblemente inteligentes, Hawkins no se desarrolló realmente en su argumento. Esto demuestra que no importa lo inteligente que seas si no te molestas en que te informen correctamente, tu IQ no vale nada.
Edit: Una última cosa: hay un arma que es tan poderosa que no solo puede detener cualquier IA existente, sino que también podría poner en marcha una guerra nuclear. Es incluso más peligroso que esté en todas partes y probablemente en el dispositivo que está usando ahora. Se denomina interruptor de alimentación siempre que una actividad de AI pueda detenerse / suspenderse a través de una herramienta de este tipo, lo que sigue siendo el caso, dudo que sea realmente una gran amenaza.