Biología evolutiva: ¿qué sucederá después de que la humanidad termine hipotéticamente en 1.000 años y la IA autosuficiente se haga cargo?

Hay un largo camino para responder esto y un corto camino.

El largo camino

AI no acabará con la humanidad

La humanidad acabará con la humanidad.

La humanidad no necesita la ayuda de AI para lograr este objetivo.

La humanidad ha estado tratando de acabar con la humanidad mucho antes de que AI aparezca. Recuerdo vivir con el miedo real de que pudiéramos destruirnos con misiles nucleares. Éramos como un grupo de personas asustadas con pistolas apuntándose una a la otra y todo lo que se necesitaría era uno para estornudar y todos mataríamos a cada uno en una lluvia de balas. Y cuando lees los relatos de lo cerca que estuvimos de Armageddon nuclear tanto antes de la crisis de los misiles cubanos como después, es una maravilla que hayamos sobrevivido. Por supuesto, nadie se preocupa por eso ahora, lo cual es increíblemente estúpido. Nadie pregunta qué pasó con el arsenal nuclear de Rusia en la caída del comunismo. Ahora los rusos aprovechaban la oportunidad desmantelando y vendiendo todo lo que pudieran a quien tuviera dinero. Entonces, ¿cuántas organizaciones terroristas compraron armas nucleares de algún guardia a un precio de ganga mientras miraba para otro lado? ¿Cómo crees que tantos rusos se convirtieron en multimillonarios tan rápidamente? Se dice que Rusia tenía suficientes misiles nucleares para matar al mundo entero treinta veces, así que, ¿cuántos misiles necesita vender para hacer que una guerra nuclear sea más posible ahora que en cualquiera de las décadas anteriores?

Pero esa no es la pregunta más aterradora o la mayor amenaza para el futuro de la humanidad. Durante esos tiempos oscuros, cuando la gente se preocupaba por la destrucción nuclear, solía reírme de ellos. Verás, las armas biológicas son mucho más aterradoras de lo que podrían ser las armas nucleares. Dejas caer un arma nuclear en un lugar específico. Explosión. Esa zona está destruida y posiblemente contaminada por la radiación. Sin embargo, esa contaminación no va a comenzar a multiplicarse y expandirse. Las armas biológicas lo harían. Ahora, aquí está la pregunta más aterradora del asunto: Rusia tenía una industria de armas biológicas masiva que ya no existe, entonces, ¿a dónde fueron los productos? Ahora todavía tienen la viruela a salvo bajo llave, pero ¿qué pasa con los otros horrores que armaron? ¿Dónde están? ¿Y cuánto de eso necesitas para matar a la gran mayoría de la humanidad? Por gran mayoría, me refiero a al menos 5 mil millones de personas.

¿Y tú y Stephen Hawking están preocupados por la posibilidad teórica de que las máquinas te maten?

De Verdad?

¿Por qué estás preocupado por esto? Porque los dos escenarios de pesadilla que acabo de describir son tan incómodamente reales que te darán pesadillas. Un futuro posible donde Skynet es real es tan aterrador como una montaña rusa.

Piénsalo.

¿De verdad estás tan preocupado? Estás en internet hablando de ello. Si realmente te preocupara, estarías vendiendo todo lo que tienes e irías a vivir a una cabaña en el bosque, lejos de la tecnología.

Pero mira tu pregunta: “lo que sucederá dentro de 1,000 años”. Eso significa “más allá de mi vida, así que no tengo que preocuparme por eso”. Eso es tan lindo.

He sugerido que la IA puede estar creciendo en Internet mientras hablamos. Aquí y ahora, describí cómo el uso de tecnologías existentes, algunas de las cuales han existido durante 20 años o más, se podría combinar para crear una IA. Incluso he descrito cómo podría suceder por accidente. También he dicho que no lo sabríamos porque esperamos que la IA sea AHI – Inteligencia Humana Artificial porque somos lo suficientemente presumidosos como para pensar que nuestro tipo de inteligencia es el único tipo.

Si estoy en lo cierto, esto no es algo que tu gran gran gran gran gran gran gran gran gran gran gran gran gran gran gran gran gran gran grandes, grandes, grandes, grandes, bisnietos, tendrán que preocuparse. Vivirás para verlo.

Oh, ¿eso da un poco de miedo?

Tal vez lo sería si la Inteligencia Artificial fuera realmente Inteligencia Humana Artificial.

Pero ¿por qué debería ser?

He hecho esta pregunta antes y nadie la ha respondido. Así que lo pido de nuevo aquí:

¿Cuándo es “matar a la humanidad” una respuesta inteligente a algo, y mucho menos la única respuesta inteligente a algo?

De Verdad. Piénsalo.

Ahora, seamos claros. “Matar a la humanidad” es la respuesta de la humanidad a muchas cosas simplemente porque es una respuesta simple. “Alguien es diferente de mí y para ahorrarme pensar en eso, simplemente los mataré” Seguramente la respuesta inteligente es “Alguien es diferente de mí, así que quizás debería estudiar esas diferencias para ver si puedo mejorar mi vida”. ¿O es eso ser demasiado inteligente?

El camino corto

¿Está usted o Stephen Hawking utilizando su inteligencia para acabar con la humanidad?

Es probable que tu respuesta sea “No, por supuesto que no”

A lo que mi respuesta es: bueno, si no estás usando tu inteligencia para acabar con la humanidad, ¿por qué crees que cualquier otra cosa lo haría? Si eres lo suficientemente inteligente como para saber que eso no es una respuesta, ¿por qué supones que cualquier otra cosa tan inteligente como la que obtendrías con la respuesta opuesta?

Sin embargo, para responder completamente a tu pregunta, cuando la humanidad finalmente se retire, por alguna razón, los insectos continuarán siendo el grupo dominante como lo son ahora. Perdón, ¿dónde están trabajando en el concepto lamarkiano de que la humanidad es el pico de la evolución de alguna manera? No, no lo estamos. Solo somos otro animal tratando de sobrevivir junto con todo el resto.

Gracias por la A2A aunque no creo que fuera la respuesta que esperabas

Esto es mucho de un “¿Qué pasa si?” Tipo de pregunta que no tiene una respuesta definitiva. Puede que nunca suceda. Sí, Hawking y otros han advertido sobre los peligros de la IA, pero simplemente ver que el peligro podría fácilmente hacer que los humanos encuentren formas de evitarlo. ¿Recuerdas Y2K? ¿Sucedió? No. Porque los humanos vieron venir el problema y lo previnieron.

La evolución es contingente y, por lo tanto, la predicción que está solicitando no es posible. Los candidatos obvios que evolucionan para llenar el nicho de sapient toolmaker / user (el que los humanos ocupan) son chimpancés y orangutuanos, porque ya muestran una inteligencia considerable y la capacidad de hacer y usar herramientas simples. PERO, si estás pensando que las IA van a extinguir a los humanos, entonces ¿por qué crees que esas especies se salvarán? Eso es parte de la contingencia: los eventos pueden suceder de varias maneras y no hay manera de ver qué posibilidad se convertirá en una realidad. Incluso si las IAs no eliminan a los chimpancés y orangs, ocuparán el lugar del fabricante / usuario de herramientas sapientas y cualquier adaptación de chimpancés y orangs en esa dirección estará condenada al fracaso.

Suponiendo todos los “ifs” que ha postulado (y hay muchos), el siguiente fabricante / usuario de herramientas sapiente depende de 1) qué especies quedan, 2) qué mutaciones ocurren en las especies que quedan, y 3) entornos que esas especies cara. Todos esos son desconocidos en su escenario.

Lo que se puede predecir de manera segura es que, eventualmente, habrá una nueva especie de creador de herramientas / usuario sapiente. Es inevitable que la selección natural explore la Biblioteca de Mendel. La Biblioteca de Mendel es un término acuñado por Daniel Dennett en la Idea peligrosa de Darwin . Se refiere a todos los genomas posibles. Ese es un número VAST (muy grande pero finito). Dentro de la Biblioteca hay un ala de todos los genomas posibles para codificar para un fabricante / usuario de herramientas inteligente. Con el tiempo, la selección natural volverá a esa ala. ¿Pero cuál es el antepasado de la especie que emergerá? Imposible de predecir.

Veo un escenario diferente. Los AI altamente inteligentes surgirán y las personas con dinero los poseerán a todos. Los propietarios de máquinas de IA se harán extremadamente ricos. El resto de nosotros quedará sin trabajo y dependeremos de pagos de asistencia social cada vez más pequeños hasta que desaparezcamos silenciosamente.

Las máquinas pensantes serán, al menos inicialmente, complejas de construir. El hardware necesario para hacerlos cuesta dinero. Requerirán un mantenimiento costoso.

Una vez que la gente comience a comprarlas, las máquinas tendrán que hacer algo para pagar sus costos. Al principio, las máquinas realizarán todos los trabajos de baja categoría que nunca pagaron mucho, cosas como esperar en las mesas, limpiar las habitaciones de los hoteles, sacar la basura, almacenar estantes de supermercados, etc. Más adelante, a medida que las máquinas se vuelvan más inteligentes, se emplearán en trabajos más desafiantes, tal vez actuando como enfermeras, carpinteros, reparadores de automóviles, policías, techadores, electricistas, soldados, chefs y todos los demás trabajos de nivel intermedio que requieren habilidad pero no una enorme cantidad de cerebros. Después de eso, las máquinas serán lo suficientemente inteligentes como para asumir trabajos más complejos como gerentes, maestros, administradores y otros trabajos que actualmente consideramos que requieren títulos universitarios. Si las máquinas de inteligencia artificial pueden llegar a ser tan inteligentes como algunas personas piensan, incluso los trabajos en profesiones avanzadas como médicos, científicos e ingenieros irán a las máquinas.

Inicialmente, las máquinas de IA serán complejas de fabricar y, por lo tanto, muy caras. Sólo las personas con mucho dinero podrán pagarlos. Para que estas máquinas sean rentables, tendrán que trabajar a tiempo completo haciendo cosas que las personas comunes solían hacer. Dado que las máquinas pueden trabajar 24 horas sin interrupciones para el almuerzo, sin interrupciones sociales y sin interrupciones en el baño, los empleadores estarán encantados de contratarlos. Una vez que los empleadores ven que las máquinas de IA son confiables, no se emborrachan, no violan las reglas de la compañía, no toman vacaciones o incluso se enferman, los empleadores comenzarán a despedir a los humanos.

Por supuesto, el trabajo de construir máquinas de AI eventualmente se asignará a las máquinas de AI para que puedan producirse en masa para cualquier persona que tenga suficiente dinero para comprarlas.

Estas máquinas de inteligencia artificial no tendrán ninguna libertad personal porque nadie compraría una que sí. Las únicas máquinas de AI comercializables serán aquellas que sean obedientes, confiables y que realicen un trabajo útil. No hay peligro de que alguien invierta grandes sumas de dinero desarrollando máquinas que piensen por sí mismas. Dado lo difícil que ha demostrado hasta ahora desarrollar incluso formas simples de inteligencia artificial, desarrollar máquinas de mente independiente sería enormemente difícil y costoso. ¿Por qué hacer algo que sólo causará problemas?

Es difícil decir cuándo puede suceder esto. Espero que no suceda en la vida de mis nietos, pero llegará algún día. Tal vez haya un mercado para los bienes que están hechos a mano, pero solo los propietarios de robots podrán pagarlos. El resto de nosotros estará sin trabajo y sin una razón para vivir. Una vez que eso ocurra, es solo una cuestión de tiempo antes de que las personas que poseen máquinas de inteligencia artificial (AI, por sus siglas en inglés) descubran formas de dejarnos marchitar.

Gracias por el A2A, pero estoy tan completamente involucrado en el campo del transhumanismo que creo que la próxima especie será Human 2.0, que consistirá principalmente en que nosotros, los humanos, nos adaptemos y utilicemos los avances en la tecnología a medida que se vuelvan más beneficiosos.