¿Los sistemas de IA evolucionarán para inventar un lenguaje universal que pueda estar más allá de la comprensión humana?

La prueba de concepto ya existe.

Consulte este documento de Abadi & Andersen de Google Brain. En él usan Redes Adversarias Generativas para hacer que dos agentes cifren sus comunicaciones por sí mismos.

No prescribimos algoritmos criptográficos específicos para estas redes neuronales; en cambio, entrenamos de extremo a extremo, de manera adversaria. Demostramos que las redes neuronales pueden aprender cómo realizar formas de cifrado y descifrado, y también cómo aplicar estas operaciones de forma selectiva para cumplir con los objetivos de confidencialidad.

En este otro documento, también de Google, logran usar un modelo de traducción automática neuronal para traducir entre muchos idiomas. Creando algún tipo de lenguaje interno entre ellos.

Finalmente, mostramos análisis que insinúan una representación interlingua universal en nuestros modelos y mostramos algunos ejemplos interesantes al mezclar idiomas.

Nuestros futuros agentes de IA hipotéticos no tendrían problemas para desarrollar su propio lenguaje eficiente para uso personal, cifrado o no, universal o no.

Dependiendo de cómo lo codifiquen, también podríamos entenderlo. Las redes neuronales son cajas negras, pero podemos codificar nuestras propias redes para realizar ingeniería inversa / interpretar esa entrada. Más o menos como “combatir el fuego con fuego”.

Ya sea que estén en silos o construyan sus propias antenas y eso, lo dejaría como un ejercicio de ciencia ficción.

Tenga un buen día.

Existe una idea errónea común de que la inteligencia (tanto natural como artificial) es lo mismo que la conciencia, la sensibilidad y la autoconciencia. Pero estas son cosas muy diferentes.

La inteligencia es la capacidad de resolver problemas. Pero solo los seres conscientes como nosotros tenemos o percibimos “problemas”. Los sistemas de IA ni siquiera saben lo que significa la palabra. Definimos qué problemas deben resolverse y luego programamos sistemas de IA para resolverlos más rápido o mejor de lo que nosotros mismos podemos. Pero no importa cuán inteligente pueda ser un sistema en términos de capacidad de resolución de problemas, todavía no es más consciente que un vaso de plástico.

Como seres sintientes, actuamos a propósito. Experimentamos necesidades y percibimos objetivos. Los sistemas de IA no actúan a propósito; simplemente sirven a las necesidades y objetivos humanos. La única forma en que un sistema podría “descubrir la existencia de otras IA” sería si le asignamos la tarea de hacerlo. Incluso entonces, el sistema en sí aún desconocería su existencia, del mismo modo que desconoce su propia existencia.