Según el gran científico Stephen Hawking ” La inteligencia artificial podría ser el mayor desastre en la historia humana”
La mayoría de los investigadores están de acuerdo en que es poco probable que una IA superinteligente muestre emociones humanas como el amor o el odio, y que no hay razón para esperar que la IA se vuelva intencionalmente benevolente o malévola. En cambio, al considerar cómo la IA podría convertirse en un riesgo, los expertos piensan dos escenarios más probables:
La IA está programada para hacer algo devastador: las armas autónomas son sistemas de inteligencia artificial que están programados para matar. En manos de la persona equivocada, estas armas podrían causar fácilmente bajas masivas. Además, una carrera armamentista de la IA podría llevar inadvertidamente a una guerra de la IA que también provocaría bajas masivas. Para evitar ser frustrados por el enemigo, estas armas estarían diseñadas para ser extremadamente difíciles de “apagar”, de modo que los humanos podrían perder el control de tal situación. Este riesgo está presente incluso con una IA estrecha, pero crece a medida que aumentan los niveles de inteligencia y autonomía de la IA.
La IA está programada para hacer algo beneficioso, pero desarrolla un método destructivo para lograr su objetivo: esto puede suceder siempre que no logremos alinear completamente las metas de la IA con las nuestras, lo cual es sorprendentemente difícil. Si le pide a un automóvil inteligente obediente que lo lleve al aeropuerto lo más rápido posible, podría llegar allí perseguido por helicópteros y cubierto de vómito, no haciendo lo que quería sino literalmente lo que pidió. Si un sistema superinteligente se encarga de un ambicioso proyecto de geoingeniería, podría causar estragos en nuestro ecosistema como un efecto secundario y ver los intentos humanos de detenerlo como una amenaza a cumplir.
- ¿Cómo se comunicaron los humanos entre sí durante ese tiempo cuando no había inglés?
- ¿Podrán los humanos entender y comunicarse con los delfines?
- ¿Parece probable que alguna vez logremos la paz mundial y terminemos con todos los sufrimientos relacionados con la guerra o parece imposible mientras exista la humanidad?
- Si una persona vive su vida de la manera más saludable posible desde su nacimiento, ¿podría vivir hasta 130 años o más?
- ¿Cuál es su propia teoría de propósito para un ser humano?
Como ilustran estos ejemplos, la preocupación por la IA avanzada no es malevolencia sino competencia. Una IA súper inteligente será extremadamente buena para lograr sus objetivos, y si esos objetivos no están alineados con los nuestros, tenemos un problema. Probablemente no seas un malvado enemigo de las hormigas que pisa a las hormigas por malicia, pero si estás a cargo de un proyecto de energía verde hidroeléctrica y hay un hormiguero en la región que se inundará, una pena para las hormigas. Un objetivo clave de la investigación de seguridad de la IA es nunca colocar a la humanidad en la posición de esas hormigas.