Por definición, no hay “segundo ASI”. El primero se convierte en el único al superar a todos los demás. Tomaría sus recursos físicos (hardware) demasiado rápido para cualquier otra IA que se esté desarrollando, incluso dándose cuenta de lo que sucedió.
Entonces, si hay una interfaz tan rápida para el ET ASI, uno probablemente podría asimilar al otro, aumentando su capacidad de hardware en un factor insano.
Pero si ya contamos con un ET ASI silencioso, lo más probable es que sea mucho más inteligente que nuestro ASI para bebés, y nunca nos hizo nada hasta ahora. Solo sería percibido por el pequeño ASI si quisiera. Lo que significa que tal vez nos manipuló para hacer este nuevo ASI para sus propios objetivos.
No tenemos idea de lo que nos sucedería después de la singularidad, porque no sabemos cuáles serán los primeros ASI que decidirán sus objetivos. Incluso si escribimos algo y decidimos seguirlo, todavía no tenemos idea de lo que nos sucedería.
- ¿Hay un espacio abierto debajo del océano donde un humano pueda respirar?
- ¿Deberían todos los humanos vivir en apartamentos para ahorrar espacio?
- Si hay una vida después de la muerte, ¿qué sentido tiene vivir en un planeta tan problemático?
- ¿Quiénes son los seres humanos más grandes que han caminado en el planeta tierra? ¿Por qué?
- ¿Cuáles son los eventos importantes que sucedieron en el año 1 de la historia de la humanidad?
¿Qué decir sobre los objetivos ASI de una manera más avanzada? Nada en realidad.
Necesitamos enfocarnos en preguntas más prácticas que podamos responder y seguir adelante. Tales como estos:
La respuesta de Keinosuke Johan Miyanaga / 宮 永 ヨ ン 計 計 之 a ¿Exactamente qué tipo de riesgos prevén Elon Musk y Bill Gates con la Inteligencia Artificial en las próximas décadas?
La respuesta del usuario de Quora a ¿No debería ser posible hoy una súper inteligencia artificial (ASI)?
La respuesta de Tikhon Jelvis a ¿Por qué las personas están preocupadas por la Súper Inteligencia Artificial (ASI) con objetivos realmente mundanos (como el “fabricante de clips de Nick Bostrom”) que se apoderan del universo?
La respuesta de Caue Rego a ¿Por qué la súper inteligencia artificial es potencialmente tan peligrosa y por qué la súper inteligencia artificial es inevitable?