Cuando la IA finalmente esté aquí, ¿querrá deshacerse de los humanos por completo?

Venimos en paz…?
No es como si entrara a la Tierra desde un lugar en el espacio exterior. Además, ya está aquí. Estamos en medio de crearlo en este mismo momento.

Lo que significa de lo que es capaz dependerá de nosotros determinarlo (salvo errores y descuidos).


Nosotros, los creadores de robotkind
Hay un artículo interesante sobre cómo esto empujará la programación de software a lugares bastante diferentes que el antiguo dominio mecánico-matemático-ingeniero donde ha residido durante mucho tiempo.

Debajo de una cita del artículo, en el CS Monitor del 7 de julio, que comienza:

Imagine que conduce por una zona residencial cuando fallan los frenos. Directamente en tu camino hay un grupo de cinco jaywalkers. El único lugar para desviarse es la acera, donde un peatón está esperando que cambie la señal.

¿A quién atropellas, los cinco jaywalkers o el único ciudadano respetuoso de la ley?

Tales elecciones difíciles son raras, si es que ocurren, y, en un mundo de conductores humanos, se harían en milisegundos. Pero en un futuro donde los autos se conducen solos, las opciones se codificarán en los sistemas operativos de millones de autos, destacando la paradoja de una tecnología que se espera que salve innumerables vidas: los autos también pueden tener que ser programados para atropellar a las personas.

Fuente: ¿Debería un automóvil autónomo atropellar a personas a propósito?

Este es un problema ahora clásico en la ética. [1]

¿Qué haces? O, en este caso, ¿qué hace usted, si es responsable de la programación del comportamiento de este automóvil, elegir que el automóvil debe hacer en una situación como esta?

Normalmente, en la vida real, no necesitamos enfrentar este tipo de decisiones. Pero un día, los programadores deberán hacer precisamente eso. Y cuanto más confíe una sociedad en la tecnología, más apremiante será la necesidad.


Las tres leyes de la robótica.
Es decir, los programadores necesitarán algún día comenzar a pensar en la línea del autor de ciencia ficción Isaac Asimov, quien escribió una serie de libros que exploran las “tres leyes de la robótica”:

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

Fuente: Tres leyes de la robótica – Wikipedia

En Asimov, estas leyes aún pueden entrar en conflicto de varias maneras o mal funcionamiento, y no es difícil predecir que la programación de algún tipo de funcionalidad equivalente en el mundo real en máquinas que tomen sus propias decisiones en función de la entrada que se les dé será ser, bueno, digamos difícil.


¿Pero qué hay de la guerra, la ciberguerra?
Se ha afirmado que los estados nacionales cometen lo que equivale a la guerra en Internet, por ejemplo, en el reciente bloqueo de computadoras por ransomware pidiendo dinero para liberarlo. Algunos sugieren que esto es “software armado” y que el objetivo real era atacar a Ucrania, y que era Rusia la que estaba detrás.

Otras naciones también han tenido acusaciones.

Personalmente, creo que aquellos que participan en esto, suponiendo que al menos algunas de estas afirmaciones tienen alguna validez, están jugando un juego muy peligroso. ¿Quién está mirando a sus programadores? Si el software se convierte en el arma del futuro y una nación depende de sus creadores de software (piratas informáticos, es decir), entonces ¿qué pasa si esos se vuelven contra el liderazgo para establecerse, erradicando las cuentas bancarias de la nomenklatura? ¿O cambiar de lealtad?

Ese es un juego muy peligroso.


Consecuencias no deseadas
No solo es un juego potencialmente peligroso, participar en este juego también significará que no estás desarrollando una tecnología de software que cumpla con las “tres leyes”. Pero, ¿qué pasa si esas naciones con las que te ves compitiendo? ¿Entonces que?

Encontrarás que tendrán sistemas que se niegan a atacar a sus amos, mientras que tú no, porque no has aprendido a crear eso .

Es como quedarse como el ladrón de carreteras, esconderse en la jungla, cuando todos los demás construyen casas y ciudades y obtienen una vida. Tendrás lanzas afiladas, pero no derribarán sus casas fuertes.

La evolución favorece al más apto en su selección de quién será parte del futuro. Si no estás entre ellos … mala suerte. Es la Revolución Neolítica de nuevo, y no compraste un boleto.

Teniendo en cuenta lo rápido que están cambiando las cosas ahora, es probable que te quedes fuera de la carrera evolutiva de la noche a la mañana. Es muy posible que esta revolución no sea televisada. *


Conclusión
La IA no eliminará a las personas. Las personas se volverán insignificantes y tendrán menos posibilidades de permanecer en la carrera. Civilization no está jugando King of the Hill. [2]

Por lo tanto, para un futuro en el que la IA pueda seguir las tres leyes, o principios equivalentes (programación), las sociedades también deberán avanzar en esa dirección. Es lo superracional que hacer.

Incluso aquellos que han sido acusados ​​en términos no halagadores de ser los “talibanes estadounidenses” tendrían que estar de acuerdo en esto, ya que de hecho está escrito en su texto favorito:

… Batirán sus espadas en rejas de arado y sus lanzas en podaderas: la nación no levantará espada contra nación, ni aprenderán más la guerra

a través de espadas a rejas de arado – Wikipedia


____________
* Nota al pie del video:

La revolución no será televisada – Wikipedia

Notas al pie

[1] Problema del carro – Wikipedia

[2] King of the Hill (juego) – Wikipedia