Creo que todas estas respuestas son incorrectas y hay una explicación mucho más simple:
La posibilidad de autodestrucción para una civilización avanzada es de aproximadamente el 100% antes de que sean capaces de vagar por el universo.

Primero, permítame abordar algunas de las otras explicaciones y por qué creo que están equivocadas.
1) El universo es un lugar grande.
Eso no funciona. Cualquiera que sea el método que apliquemos para calcular cuántos planetas amigables con la vida existen, siempre llegamos a números ridículamente grandes. Teniendo en cuenta el tiempo y las estadísticas, eso significa que en este momento deberían existir muchas civilizaciones alienígenas que están altamente evolucionadas. Si tomamos la trayectoria del progreso humano en los próximos 1000 años, es obvio que encontraremos maneras de salvar distancias muy grandes rápidamente (mucho más rápido que la luz).
Habría una tecnología tremendamente poderosa, y lo primero que haces con esta tecnología es buscar vida. Incluso nosotros, con tecnología súper primitiva, sabemos cómo buscar vida (pero nos falta el hardware para las expediciones).
2) las culturas avanzadas girarán hacia adentro, no hacia afuera
Improbable. Cualquiera que sea la especie que gane, los millones de años de selección serán expansivos y agresivos por naturaleza. Esto no va a desaparecer, nunca, porque eso es lo que somos nosotros (y ellos), porque si no lo hiciéramos, no existiríamos.
Los supuestos de que las civilizaciones avanzadas eliminarán el núcleo mismo que define quiénes son son erróneos, las personas (y los extranjeros) no lo hacen. De hecho, es muy probable que una mente consciente sea incapaz de eliminarse a sí misma.
La paradoja de Fermi es una verdadera paradoja.
Las estadísticas y las trayectorias tecnológicas simplemente no pueden explicar por qué el universo no está repleto de alienígenas de alta tecnología.
A menos que pongamos nuestra atención en ciertas dinámicas inevitables dentro de estas civilizaciones.
Esta idea me vino cuando discutí sobre amenazas futuras (IA, proliferación de armas nucleares, biotecnología futura armada) y los últimos 120 años en la tierra.
La posibilidad de que una civilización avanzada se autodestruya antes de que alcance la capacidad de itinerancia del universo se aproxima al 100%.
Yo lo llamo el paradigma de autodestrucción.
Aquí está mi razonamiento y algunos juegos de números:
Supongamos con seguridad que cada civilización extraterrestre de alta tecnología alcanza un punto en el que puede autodestruirse fácilmente. La humanidad llegó a ese punto en el siglo XX. Y se está volviendo exponencialmente peor con cada día.
Definamos la autodestrucción como una regresión de la civilización a un punto en el que los viajes espaciales de alta tecnología se vuelven difíciles, un importante retroceso en términos de ciencia, cultura y tecnología. Como una guerra nuclear, la pesadilla de la IA o la desintegración del ecosistema planetario.
Supongamos también que con el aumento de la tecnología, la cantidad de personas necesarias para iniciar la autodestrucción se vuelve exponencialmente más pequeña: en 1950, necesitaba uno de los 2 PAÍSES principales para iniciar la autodestrucción humana. Hoy en día, no necesitas más de una red de 100, tal vez 1000 tipos malos que se abren camino hacia unas pocas docenas de armas nucleares. En el futuro cercano, un pirata informático crea una IA malvada y autoconsciente. En su sótano podría ser suficiente.
Ahora, consideremos el tiempo entre el momento en que una civilización alcanza la capacidad de autodestrucción y el punto en el que podría vagar libremente y detectar el universo en busca de vida extraterrestre.
Es muy difícil estimar exactamente esta línea de tiempo, pero será bastante importante. Digamos 10.000 años, asumiendo un crecimiento de tecnología verdaderamente exponencial.
Ahora, ¿cuáles son las probabilidades de que la civilización se autodestruya dentro de esta línea de tiempo?
Muy rápidamente (dadas las escalas exponenciales), un número muy pequeño de personas, tal vez cada miembro, de la civilización tendrá el poder de destruir la civilización. Para hacer que las cosas sean más fáciles de calcular, supongamos que en promedio cien mil personas tienen que conspirar para autodestruirse. También podemos asumir con seguridad una conectividad perfecta entre todos los miembros, excepto en las primeras décadas.
Supongamos también, según la humanidad, una población promedio de 100 mil millones de personas (ya estamos en 7b, por lo que el promedio de 100 b en los próximos 10,000 años es bastante bajo).
Esto significa que todo lo que se necesita son 100 personas de 100 mil millones para conspirar para autodestruir la civilización, y solo tiene que suceder UNA VEZ durante estos 10.000 años. Asumamos que toma un mes para que el grupo malvado planifique y ejecute la autodestrucción (también muy indulgente, dado que la mayoría del tiempo tendrán a su disposición una super-IA).
Así es: tienes que asegurarte continuamente durante más de 10,000 x 12 meses = 120,000 meses que ningún grupo de 100 de cada 100 billones de personas decida volverse loco, NUNCA.
También es bastante seguro asumir que no existe un sistema de seguridad en el mundo para evitar que lo hagan, ya que este nivel de control es difícil de imaginar. Tal vez existen algunas medidas de seguridad para detectar desviaciones, pero a esta escala, es un problema.
Entonces, básicamente, esta civilización debe alcanzar un nivel de sabiduría, previsión y un sistema de cuidado mutuo absolutamente impecable que, de los 100 mil millones, nunca habrá 100 personas que estén tan enojadas o lo suficientemente locas como para destruir la civilización.
Podría ser posible construir una infraestructura de sabiduría como esta, pero es una tarea hercúlea.
Y creo que todas las civilizaciones extraterrestres avanzadas hasta ahora no lo han logrado.
La humanidad no está preparada para estar a la altura de esta tarea. Afortunadamente, pasarán otros 100 o más años antes de que alcancemos niveles de capacidad de autodestrucción de fácil acceso universal. Desafortunadamente, 100 años no es mucho tiempo para inventar una nueva infraestructura de sabiduría que garantice que ni un solo miembro de la raza humana tenga una razón para volverse loco.
Puede pensar en el paradigma de autodestrucción teórica / matemáticamente y desde una perspectiva de evaluación de la amenaza concreta. Combine la biotecnología exponencial, la ingeniería física, la inteligencia artificial y el software con el terrorismo y planifíquelo en una trayectoria de 30 años a partir de hoy, y ya tendrá una idea del problema. Ahora hágalo en los próximos 100 años, y el problema se convierte en una amenaza existencial y de alta probabilidad.
Como mencioné antes, la autodestrucción no siempre significa la aniquilación total.
Pero si obtiene un retroceso del 10% del total cada 100 años, no puede ir más allá de los 1000 años de avance. Y nunca vagarás libremente por el universo y buscarás alienígenas en todas partes, a pesar de que está tan cerca de tu trayectoria tecnológica.