El cambio climático probablemente no mataría a todos. Incluso si la población humana estuviera literalmente diezmada (recortada al 10%), probablemente no empeoraría, ya que las emisiones de gases de efecto invernadero se reducirían mucho en ese momento. ¿Muy mal? Totalmente. ¿Riesgo de extinción? No.
La guerra nuclear es más peligrosa debido a la posibilidad de un invierno nuclear. Nuevamente, esto causaría una reducción masiva de las poblaciones, pero las comunidades pequeñas probablemente podrían sostenerse con invernaderos en regiones tropicales, y nuevamente, la extinción no es el resultado predeterminado.
Por razones similares, la sequía, el hambre y la guerra mundial solo podrían causar una reducción masiva de la población
Los asteroides no son más propensos a aniquilarnos de lo que nunca antes, y al haber sobrevivido a los asteroides durante cientos de miles de años, es poco probable que nos saquen en los próximos doscientos años.
- Cómo pensar que los humanos evolucionarán en respuesta a su uso del dinero
- ¿Cómo puede estar unida toda la humanidad?
- ¿Cómo habrían evolucionado los humanos si fuéramos ciegos?
- ¿Las mujeres de color que usan el término ‘Becky’ cuando se refieren a las mujeres blancas privan a las mujeres blancas de su humanidad?
- ¿Existe una preferencia natural por la tasa de interés, como categoría de acción humana, incrustada en la naturaleza humana?
Las pandemias son un verdadero riesgo. Nunca ha sido tan fácil para las enfermedades propagarse en todo el mundo. Una enfermedad con la mortalidad de la rabia, el período de incubación de la viruela y la contagia del resfriado común podrían acabar con nosotros, si llegara a existir. Dicho esto, no hay ninguna razón extraordinariamente fuerte para creer que las enfermedades de ese tipo surgirán naturalmente en un futuro cercano.
Eso deja la inteligencia artificial. Slate Star Codex tiene un gran resumen de Investigadores de AI sobre Riesgo de AI. El consenso general entre los investigadores de AI es que la IA podría representar una amenaza real de extinción, aunque existe un considerable desacuerdo sobre cuándo podría suceder esto y cuándo deberíamos comenzar a prepararnos. Mucha gente piensa que la extinción es el resultado “predeterminado” de una explosión de inteligencia porque la mayoría de los objetivos, cuando se optimizan a fondo, no preservarán de manera confiable y explícitamente nada dentro del contenido del objetivo del agente. En otras palabras, si una IA es fantásticamente inteligente, y solo se preocupa por hacer clips, es mejor que no contemos con la existencia continua de nada, excepto clips y computadoras (está bien, y estrellas y agujeros negros). Esa es obviamente una explicación muy inadecuada de dos oraciones. El riesgo de extinción de la Inteligencia Artificial es donde le indicaría una explicación más completa.