La prueba de concepto ya existe.
Consulte este documento de Abadi & Andersen de Google Brain. En él usan Redes Adversarias Generativas para hacer que dos agentes cifren sus comunicaciones por sí mismos.
No prescribimos algoritmos criptográficos específicos para estas redes neuronales; en cambio, entrenamos de extremo a extremo, de manera adversaria. Demostramos que las redes neuronales pueden aprender cómo realizar formas de cifrado y descifrado, y también cómo aplicar estas operaciones de forma selectiva para cumplir con los objetivos de confidencialidad.
En este otro documento, también de Google, logran usar un modelo de traducción automática neuronal para traducir entre muchos idiomas. Creando algún tipo de lenguaje interno entre ellos.
- ¿Alguien puede convencerme de dedicar mi vida a algo que es de primordial importancia para la supervivencia de la humanidad? Puede ser cualquier cosa grande o pequeña.
- ¿Qué pasaría si los humanos nunca mataran a ningún animal? ¿No tendríamos sobrepoblación de animales y demasiados animales peligrosos alrededor?
- ¿Alguna vez los humanos evolucionarán para usar la telepatía?
- ¿Cómo se relaciona la carne humana con el alma?
- ¿Podemos volver a la normalidad después de perder la fe en la humanidad?
Finalmente, mostramos análisis que insinúan una representación interlingua universal en nuestros modelos y mostramos algunos ejemplos interesantes al mezclar idiomas.
Nuestros futuros agentes de IA hipotéticos no tendrían problemas para desarrollar su propio lenguaje eficiente para uso personal, cifrado o no, universal o no.
Dependiendo de cómo lo codifiquen, también podríamos entenderlo. Las redes neuronales son cajas negras, pero podemos codificar nuestras propias redes para realizar ingeniería inversa / interpretar esa entrada. Más o menos como “combatir el fuego con fuego”.
Ya sea que estén en silos o construyan sus propias antenas y eso, lo dejaría como un ejercicio de ciencia ficción.
Tenga un buen día.