1. guerra nuclear
Si bien hasta ahora solo se han usado dos armas nucleares en la guerra, en Hiroshima y Nagasaki en la Segunda Guerra Mundial, y las reservas nucleares han bajado de su máximo nivel alcanzado en la Guerra Fría, es un error pensar que la guerra nuclear es imposible. De hecho, podría no ser improbable.
La crisis de los misiles cubanos estuvo muy cerca de volverse nuclear. Si asumimos un evento de este tipo cada 69 años y una posibilidad entre tres de que pueda llegar a ser una guerra nuclear, la posibilidad de tal catástrofe aumenta a aproximadamente uno en 200 por año.
Peor aún, la crisis de los misiles cubanos fue solo el caso más conocido. La historia de la disuasión nuclear soviético-estadounidense está llena de llamadas y errores peligrosos. La probabilidad real ha cambiado dependiendo de las tensiones internacionales, pero parece improbable que las posibilidades sean mucho menores que una en 1000 por año.
Una guerra nuclear a gran escala entre las principales potencias mataría a cientos de millones de personas directamente o durante las próximas consecuencias, un desastre inimaginable. Pero eso no es suficiente para convertirlo en un riesgo existencial.
De manera similar, los peligros de las consecuencias son a menudo exagerados, potencialmente mortales a nivel local, pero a nivel mundial un problema relativamente limitado.
Las bombas de cobalto se propusieron como un arma hipotética del fin del mundo que mataría a todos con consecuencias, pero en la práctica son difíciles y costosas de construir. Y son físicamente apenas posibles.
La verdadera amenaza es el invierno nuclear, es decir, la acumulación de hollín en la estratosfera que provoca un enfriamiento y secado del mundo durante varios años. Las simulaciones climáticas modernas muestran que podría impedir la agricultura en gran parte del mundo durante años. Si se produce este escenario, miles de millones se morirían de hambre, dejando solo sobrevivientes dispersos que podrían ser eliminados por otras amenazas como la enfermedad. La principal incertidumbre es cómo se comportaría el hollín: dependiendo del tipo de hollín, los resultados pueden ser muy diferentes, y actualmente no tenemos buenas maneras de estimarlo.
2. Pandemia de bioingeniería. Al aire libre
Las pandemias naturales han matado a más personas que las guerras. Sin embargo, es poco probable que las pandemias naturales sean amenazas existenciales: por lo general, algunas personas son resistentes al patógeno y la descendencia de los sobrevivientes sería más resistente. La evolución tampoco favorece a los parásitos que destruyen a sus huéspedes, por lo que la sífilis pasó de ser un asesino virulento a convertirse en una enfermedad crónica a medida que se propagaba en Europa.
Lamentablemente ahora podemos hacer enfermedades más desagradables. Uno de los ejemplos más famosos es cómo la introducción de un gen adicional en el mousepox, la versión para ratones de la viruela, lo hizo mucho más letal y capaz de infectar a las personas vacunadas. Trabajos recientes sobre la gripe aviaria han demostrado que la contagio de una enfermedad puede ser aumentada deliberadamente.
3. Superinteligencia Al aire libre
La superinteligencia es muy poderosa. Un pequeño incremento en la capacidad de resolución de problemas y la coordinación de grupos es la razón por la que dejamos a los otros simios en el polvo. Ahora su existencia continua depende de las decisiones humanas, no de lo que hacen. Ser inteligente es una ventaja real para las personas y las organizaciones, por lo que hay mucho esfuerzo para descubrir formas de mejorar nuestra inteligencia individual y colectiva: desde las drogas que mejoran la cognición hasta el software de inteligencia artificial.
El problema es que las entidades inteligentes son buenas para lograr sus objetivos, pero si las metas están mal establecidas, pueden usar su poder para lograr inteligentemente fines desastrosos. No hay razón para pensar que la inteligencia en sí misma hará que algo se comporte bien y moralmente. De hecho, es posible probar que ciertos tipos de sistemas superinteligentes no obedecerían las reglas morales aunque fueran verdaderas.
.
Aún más preocupante es que al tratar de explicar las cosas a una inteligencia artificial nos encontramos con profundos problemas prácticos y filosóficos. Los valores humanos son difusos, cosas complejas que no somos buenos para expresar, e incluso si pudiéramos hacerlo, es posible que no entendamos todas las implicaciones de lo que deseamos. La inteligencia basada en el software puede ir muy rápidamente desde lo humano a lo terriblemente poderoso. La razón es que puede escalar de diferentes maneras a la inteligencia biológica: puede ejecutarse más rápido en computadoras más rápidas, las partes pueden distribuirse en más computadoras, diferentes versiones probadas y actualizadas sobre la marcha, nuevos algoritmos incorporados que dan un salto en el rendimiento.
Se ha propuesto que una “explosión de inteligencia” es posible cuando el software se vuelve lo suficientemente bueno para hacer un mejor software. Si se produjera tal salto, habría una gran diferencia en el poder potencial entre el sistema inteligente (o las personas que le dicen qué hacer) y el resto del mundo. Esto tiene un claro potencial para el desastre si las metas están mal establecidas.
Lo inusual de la superinteligencia es que no sabemos si son posibles explosiones de inteligencia rápidas y poderosas: tal vez nuestra civilización actual en su conjunto se esté mejorando a la velocidad más rápida posible. Pero hay buenas razones para pensar que algunas tecnologías pueden acelerar las cosas mucho más rápido de lo que las sociedades actuales pueden manejar. De manera similar, no tenemos un buen control sobre cuán peligrosas serían las diferentes formas de superinteligencia o qué estrategias de mitigación realmente funcionarían. Es muy difícil razonar acerca de la tecnología futura que aún no tenemos, o inteligencias mayores que nosotros mismos. De los riesgos en esta lista, este es el que probablemente sea masivo o simplemente un espejismo.
Esta es un área sorprendentemente poco investigada. Incluso en los años 50 y 60, cuando las personas estaban extremadamente seguras de que la superinteligencia podía lograrse “dentro de una generación”, no se interesaban mucho por los problemas de seguridad. Tal vez no tomaron en serio sus predicciones, pero lo más probable es que simplemente lo vieron como un problema futuro remoto.
4. Nanotecnología. Al aire libre
La nanotecnología es el control de la materia con precisión atómica o molecular. Eso no es peligroso en sí mismo, sino que sería una muy buena noticia para la mayoría de las aplicaciones. El problema es que, al igual que la biotecnología, aumentar el poder también aumenta el potencial de abusos contra los que es difícil defenderse.
El gran problema no es el infame “goo gris” de las nanomáquinas auto-replicantes que se comen todo. Eso requeriría un diseño inteligente para este propósito. Es difícil hacer que una máquina se replique: la biología es mucho mejor en esto, por defecto. Tal vez algún maníaco eventualmente tenga éxito, pero hay muchos más frutos de baja altura en el árbol de tecnología destructiva.
El riesgo más obvio es que la fabricación atómicamente precisa parece ideal para la fabricación rápida y barata de cosas como armas. En un mundo donde cualquier gobierno podría “imprimir” grandes cantidades de armas autónomas o semiautónomas (incluidas las instalaciones para hacer aún más) las carreras de armamentos podrían volverse muy rápidas, y por lo tanto inestables, ya que hacer un primer ataque antes de que el enemigo se vuelva demasiado grande. La ventaja puede ser tentadora.
Las armas también pueden ser pequeñas, cosas de precisión: un “veneno inteligente” que actúa como un gas nervioso pero busca víctimas, o los sistemas de vigilancia ubicuos “gnatbot” para mantener a las poblaciones obedientes parece completamente posible. Además, podría haber formas de conseguir la proliferación nuclear y la ingeniería climática en las manos de cualquiera que lo desee.
No podemos juzgar la probabilidad de riesgo existencial de la nanotecnología futura, pero parece que podría ser potencialmente perjudicial simplemente porque puede darnos lo que deseemos.
- ¿Por qué los ateos descartan la existencia de Dios cuando no pueden explicar la sanidad por fe y la clarividencia?
- ¿Son valiosas las declaraciones no racionales?
- ¿La felicidad basal es genética?
- ¿Qué ideas filosóficas han sido las más propicias para su estilo de vida y su visión general de la vida?
- ¿Puede estar seguro de que ha abandonado su religión debido a su irracionalidad en lugar de su carga?