¿Se exterminarán los AI después de que exterminen a la humanidad?

Estás pensando en Terminators ficticios controlados por SkyNet y no por AI.

No tenemos idea de cómo hacer IA auto-conscientes; ni cómo hacer que las IA tengan sentimientos o un sentido de propósito. Harán lo que están programados para hacer.

¿Podríamos programar las IA para matar humanos? Claro, pero podemos hacerlo sin las IA. Los Estados Unidos podrían destruir cualquier número de países con nuestras armas nucleares. No necesitamos las IA para hacer eso.


Esta tendencia de algunos científicos a preocuparse por que las IA se vuelvan conscientes de sí mismas y luego destruya a la humanidad está desviando la atención de los problemas reales que enfrentamos.

Tenemos personas que se dedican a la esclavitud; en el tráfico sexual; en el terrorismo en nombre de Dios; en los funcionarios del gobierno que se hacen ricos a expensas de los ciudadanos del país y dejan a sus ciudadanos empobrecidos; y en la contaminación que mata literalmente a millones de personas cada año.

En lugar de centrarse en estos problemas reales, es más fácil centrarse en estos problemas, tales como:

  • AIs que destruirán a la humanidad
  • “Cambio climático” (el calentamiento global es un problema, pero no es tan difícil de tratar)
  • Guerra nuclear
  • Superpoblación
  • Algunos virus parecidos al ébola que infectarán el mundo.

Estos están desviando nuestra atención de las cosas que realmente podemos hacer una diferencia.

Probablemente morirían por falta de mantenimiento. Podría pensar que podrían arreglarse por sí mismos, pero una pequeña falla en el hardware podría causar una cascada de fallas que podrían apagar el sistema. No hay dispositivos físicos que NO fallan en algún momento. Podría tomar un tiempo pero sucedería. Incluso las estrellas tienen un punto en el que no pueden funcionar. Cualquier IA lo suficientemente inteligente como para destruir a la humanidad sería capaz de resolver esto. Por lo tanto si lo hicieran sabrían que se estaban suicidando.

No … otra IA tiene conocimiento adicional, se puede combinar con.

No se exterminará, alguna IA puede favorecer el exterminio considerando el daño que causó a la tierra y otras especies. Algunos AI prefieren tomar el control de los humanos, reconsiderando que tienen mejor inteligencia que humanos. Ellos controlan para anular el daño hecho por los humanos. no exterminan porque tendrán más poder que los humanos, así que no hay amenaza. No exterminan porque los humanos son como Dios (creador) para ellos. No lo hacen porque es difícil de deshacer. No lo hacen porque se aburren sin los humanos debido a la vida monótona. Prefieren enderezar a los humanos y buscar otros planetas o buscar las verdades.

Pasarán cientos de años antes de que los robots puedan pensar como humanos. Ni siquiera estamos cerca de poder programar eso. No habría ninguna razón para que nos lastimen a menos que estén programados para hacerlo. Y hacerlo derrotaría todo el propósito de un robot. Los hacemos para ayudarnos.

Si hiciéramos una lista de 1000 mil cosas de las que deberíamos preocuparnos, el exterminio por parte de los robots ni siquiera formaría la lista.

\\ ver en que la naturaleza se guarda de un importante \\

Hay algo muy malo con la gramática en esa frase. es decir, no puedo entenderlo

¿La IA elegiría deshacerse a sí misma porque no serviría para ningún otro propósito?

Solo si la IA estaba programada para hacerlo. Una verdadera IA consciente de sí misma que pueda hacerlo encontraría algún otro propósito igual al que pueden hacer los humanos. Como, si es posible, construir una civilización de máquinas que eventualmente se expanda para convertirse en una civilización interestelar.

Si está programado para matar todo y se considera vivo entonces sí.
Si está programado para matar humanos, o para eliminar amenazas a su propia existencia (ya sea a través de la programación o ganando sensibilidad por sí mismo), entonces no.