No podemos estar en el pináculo de la inteligencia. Como forma de vida, todavía estamos en un proceso constante de evolución y, por lo tanto, se espera que nuestros cerebros sigan evolucionando. La evolución no siempre es positiva, se concede. Pero como especie, parece que siempre estamos ejerciendo presión sobre nuestras capacidades cognitivas, por lo que es probable que nuestros cerebros evolucionen hacia mejores y mejores “máquinas” biológicas. Así ha sido, al menos, cómo han evolucionado nuestros cerebros hasta ahora.
Pero eso es cuando hablamos de nosotros mismos. Otro problema es si algún día construiremos una máquina que sea más inteligente que nosotros. Una superinteligencia (super en comparación con nosotros).
En ese sentido, me opongo completamente a la idea. No creo que podamos construir tal superinteligencia. Creo que nuestras habilidades cognitivas nos limitan de la misma manera que el espacio-tiempo nos limita a sus 4 dimensiones. No podemos superarnos ni crear algo que trascienda nuestras habilidades cognitivas. Solo podemos, en el mejor de los casos, emular (notar que la emulación es mejor que la simulación) nuestras habilidades en un momento dado en el tiempo.
Y esta limitación es universal. Simplemente no es nuestro, sino de cualquier entidad capaz de pensar, incluidas las máquinas.
- La IA real no traerá destrucción a la raza / sociedad humana si los humanos no tienen / muestran el lado malo de su carácter. ¿Crees que esta afirmación es cierta?
- ¿Cómo habrían evolucionado los humanos si nunca abandonáramos el agua?
- ¿Cuánto tiempo llevará a los sobrevivientes humanos recuperar su tecnología / civilización en un nuevo planeta?
- ¿Podrían los humanos crear algo más complejo que el cerebro humano?
- ¿Hasta dónde puede llegar la raza humana?
Uno de los argumentos que a menudo se usa para una IA capaz de reproducirse y construir mejores versiones de sí mismo es que dicha IA tiene el potencial de procesar el pensamiento a una velocidad mucho más rápida que los humanos. Por lo tanto, su capacidad para resolver problemas es más rápido que los humanos, y de ahí la idea de que eventualmente nos puede superar. Así que probemos el siguiente experimento mental:
100 científicos de igual habilidad se ponen en una sala para estudiar y encontrar la solución a un problema complejo. Finalmente llegan a la solución en 9 meses. Su trabajo combinado produjo el equivalente a 100 * 9 meses de trabajo, o 75 años de investigación condensada a 9 meses. ¡Impresionante!
La cuestión es que la solución a un problema tan complejo aún será entendida por un solo científico. Es decir, el alcance del problema y el alcance de la solución nunca dejaron los límites de la inteligencia humana. Y nunca podría. Simplemente no podemos razonar más allá de nuestras habilidades. Y con esa limitación, necesariamente no podemos construir mejores máquinas cognitivas que nosotros mismos. Una máquina en sí misma enfrentaría las mismas limitaciones. Nunca puede razonar más allá de sus limitaciones, lo que será. En el mejor de los casos, las mismas limitaciones de sus creadores. En consecuencia, nunca puede construir una mejor máquina cognitiva que la propia.
La tercera y última opción es si encontraremos una superinteligencia de una fuente externa. Un alien. En ese sentido, no cuestiono el si, sino solo el cuándo. Es casi seguro que es inevitable que no estemos cerca de ser la forma de vida más inteligente del Universo. Como dijo una vez el famoso Neil deGrasse Tyson, solo se necesita un 1% de nuestro ADN para distinguirnos de un chimpancé. 1%! Ahora imagine que otra especie que es un 1% diferente a nosotros (para mejor, supongamos) puede ser para nosotros.