Siendo AI una entidad completamente no biológica, no tendría nada que ver con la existencia y el bienestar de los seres humanos o la tierra. Por lo tanto, depende completamente de cómo los humanos enseñen a la IA que quién debe preferir a los demás cuando llegue el momento de tomar decisiones. Según yo, debemos enseñar a la IA a “pensar a favor” tanto de la tierra como de la raza humana.
Sin embargo, si el ser humano enseña a la IA a preferir la tierra sobre los humanos, entonces la IA salvaría a la tierra de los humanos eliminándonos. Por otro lado, si el ser humano enseña a la IA a preferir a los humanos sobre la tierra, entonces la IA no haría nada (contra los humanos) cuando los humanos explotan la tierra e interfieren con su entorno.
Por encima de todo, si la IA llega a un punto (en un futuro cercano) cuando comienza a “pensar por su cuenta” imparcialmente y reflexiona sobre la interacción histórica de la raza humana con la tierra y su entorno, entonces la IA nos advertirá, nos castigará (si No nos borres por completo) y trata de enderezarnos.
- ¿Puede la humanidad crear un dispositivo explosivo lo suficientemente grande como para rivalizar con el gigantesco cometa que golpeó la Tierra hace millones de años?
- ¿Se están volviendo los humanos más inteligentes con el tiempo?
- Digamos que alguien encuentra una manera de hacer inmortales a todos los humanos en la tierra, ¿cómo se adaptaría la sociedad?
- ¿Por qué, 47 años después del aterrizaje lunar, la humanidad nunca ha tratado de dar otro gran paso en el espacio?
- ¿Aceptas que los humanos son frágiles y muy débiles y no pueden ir más allá de nuestras limitaciones para cambiar algo?