Hay un largo camino para responder esto y un corto camino.
El largo camino
AI no acabará con la humanidad
La humanidad acabará con la humanidad.
- ¿Por qué muchas personas no reconocen a los humanos como animales?
- ¿Estaban los humanos siempre sujetos a cambios demográficos a medida que los imperios conquistaban nuevas áreas y crecían?
- En el contexto de toda la historia humana, ¿quién fue la figura humana más significativa?
- Si los extraterrestres encontraran la Tierra justo después de que los humanos desaparecieran misteriosamente, ¿qué harían?
- ¿Por qué los chimpancés y los humanos se consideran especies separadas?
La humanidad no necesita la ayuda de AI para lograr este objetivo.
La humanidad ha estado tratando de acabar con la humanidad mucho antes de que AI aparezca. Recuerdo vivir con el miedo real de que pudiéramos destruirnos con misiles nucleares. Éramos como un grupo de personas asustadas con pistolas apuntándose una a la otra y todo lo que se necesitaría era uno para estornudar y todos mataríamos a cada uno en una lluvia de balas. Y cuando lees los relatos de lo cerca que estuvimos de Armageddon nuclear tanto antes de la crisis de los misiles cubanos como después, es una maravilla que hayamos sobrevivido. Por supuesto, nadie se preocupa por eso ahora, lo cual es increíblemente estúpido. Nadie pregunta qué pasó con el arsenal nuclear de Rusia en la caída del comunismo. Ahora los rusos aprovechaban la oportunidad desmantelando y vendiendo todo lo que pudieran a quien tuviera dinero. Entonces, ¿cuántas organizaciones terroristas compraron armas nucleares de algún guardia a un precio de ganga mientras miraba para otro lado? ¿Cómo crees que tantos rusos se convirtieron en multimillonarios tan rápidamente? Se dice que Rusia tenía suficientes misiles nucleares para matar al mundo entero treinta veces, así que, ¿cuántos misiles necesita vender para hacer que una guerra nuclear sea más posible ahora que en cualquiera de las décadas anteriores?
Pero esa no es la pregunta más aterradora o la mayor amenaza para el futuro de la humanidad. Durante esos tiempos oscuros, cuando la gente se preocupaba por la destrucción nuclear, solía reírme de ellos. Verás, las armas biológicas son mucho más aterradoras de lo que podrían ser las armas nucleares. Dejas caer un arma nuclear en un lugar específico. Explosión. Esa zona está destruida y posiblemente contaminada por la radiación. Sin embargo, esa contaminación no va a comenzar a multiplicarse y expandirse. Las armas biológicas lo harían. Ahora, aquí está la pregunta más aterradora del asunto: Rusia tenía una industria de armas biológicas masiva que ya no existe, entonces, ¿a dónde fueron los productos? Ahora todavía tienen la viruela a salvo bajo llave, pero ¿qué pasa con los otros horrores que armaron? ¿Dónde están? ¿Y cuánto de eso necesitas para matar a la gran mayoría de la humanidad? Por gran mayoría, me refiero a al menos 5 mil millones de personas.
¿Y tú y Stephen Hawking están preocupados por la posibilidad teórica de que las máquinas te maten?
De Verdad?
¿Por qué estás preocupado por esto? Porque los dos escenarios de pesadilla que acabo de describir son tan incómodamente reales que te darán pesadillas. Un futuro posible donde Skynet es real es tan aterrador como una montaña rusa.
Piénsalo.
¿De verdad estás tan preocupado? Estás en internet hablando de ello. Si realmente te preocupara, estarías vendiendo todo lo que tienes e irías a vivir a una cabaña en el bosque, lejos de la tecnología.
Pero mira tu pregunta: “lo que sucederá dentro de 1,000 años”. Eso significa “más allá de mi vida, así que no tengo que preocuparme por eso”. Eso es tan lindo.
He sugerido que la IA puede estar creciendo en Internet mientras hablamos. Aquí y ahora, describí cómo el uso de tecnologías existentes, algunas de las cuales han existido durante 20 años o más, se podría combinar para crear una IA. Incluso he descrito cómo podría suceder por accidente. También he dicho que no lo sabríamos porque esperamos que la IA sea AHI – Inteligencia Humana Artificial porque somos lo suficientemente presumidosos como para pensar que nuestro tipo de inteligencia es el único tipo.
Si estoy en lo cierto, esto no es algo que tu gran gran gran gran gran gran gran gran gran gran gran gran gran gran gran gran gran gran grandes, grandes, grandes, grandes, bisnietos, tendrán que preocuparse. Vivirás para verlo.
Oh, ¿eso da un poco de miedo?
Tal vez lo sería si la Inteligencia Artificial fuera realmente Inteligencia Humana Artificial.
Pero ¿por qué debería ser?
He hecho esta pregunta antes y nadie la ha respondido. Así que lo pido de nuevo aquí:
¿Cuándo es “matar a la humanidad” una respuesta inteligente a algo, y mucho menos la única respuesta inteligente a algo?
De Verdad. Piénsalo.
Ahora, seamos claros. “Matar a la humanidad” es la respuesta de la humanidad a muchas cosas simplemente porque es una respuesta simple. “Alguien es diferente de mí y para ahorrarme pensar en eso, simplemente los mataré” Seguramente la respuesta inteligente es “Alguien es diferente de mí, así que quizás debería estudiar esas diferencias para ver si puedo mejorar mi vida”. ¿O es eso ser demasiado inteligente?
El camino corto
¿Está usted o Stephen Hawking utilizando su inteligencia para acabar con la humanidad?
Es probable que tu respuesta sea “No, por supuesto que no”
A lo que mi respuesta es: bueno, si no estás usando tu inteligencia para acabar con la humanidad, ¿por qué crees que cualquier otra cosa lo haría? Si eres lo suficientemente inteligente como para saber que eso no es una respuesta, ¿por qué supones que cualquier otra cosa tan inteligente como la que obtendrías con la respuesta opuesta?
Sin embargo, para responder completamente a tu pregunta, cuando la humanidad finalmente se retire, por alguna razón, los insectos continuarán siendo el grupo dominante como lo son ahora. Perdón, ¿dónde están trabajando en el concepto lamarkiano de que la humanidad es el pico de la evolución de alguna manera? No, no lo estamos. Solo somos otro animal tratando de sobrevivir junto con todo el resto.
Gracias por la A2A aunque no creo que fuera la respuesta que esperabas