Stephen Hawking dice que la inteligencia artificial podría acabar con la raza humana a medida que la tecnología se vuelve consciente de sí misma. ¿Cuáles son los posibles escenarios donde esto podría suceder? ¿En qué escenarios podría suceder esto sin que los humanos pudieran detenerlo?

Tenga en cuenta que Stephen Hawking es un investigador brillante en su área específica, pero eso no necesariamente se traduce en el conocimiento de otros campos, es decir, el riesgo de IA / AGI. Algunos investigadores están dedicados a este campo, pero tienen una exposición mucho menor que Stephen Hawking.

Dicho esto, su advertencia, como Musk recientemente en las noticias, pone atención a un tema interesante.

Hay muchos escenarios donde esto podría suceder, los contextos más obvios son:

  • carrera militar: el ejército, por ejemplo, DARPA financia la investigación en IA y tiene interés en AGI, si varias naciones creen que es una solución eficiente, se puede esperar un aumento de la financiación en el área y el progreso.
  • carrera comercial: las empresas de Internet procesan gran cantidad de datos automáticamente (big data) a través de algoritmos cada vez más complejos. Con el fin de maximizar los beneficios según lo dictado por los accionistas y (sic) las competiciones, se puede esperar un aumento de la financiación en el procesamiento automatizado de datos.
  • academia o tinkerer aleatorio: un investigador o entusiasta que juega con recursos mucho más limitados y acceso a plataformas informáticas escalables (por ejemplo, marcos de trabajo AWS, bitcoin blockchain 2.0, botnets, etc.)

En todos esos contextos pueden ocurrir dos cosas.

  1. Todo avanza sin problemas y hay un completo entendimiento y control del proceso. Los recursos se asignan y las actualizaciones del sistema se realizan con supervisión.
  2. La asignación de recursos y la actualización del sistema se realizan automáticamente para ganar velocidad sobre un adversario o competidor potencial o (sic) como un error conceptual o simplemente un error.

Creo que esos ejemplos simples y realistas muestran que sí, en algún momento existe un riesgo, especialmente al saber que una parte cada vez más grande de la infraestructura o los países y a nivel local con domótica, las herramientas reales están conectadas a Internet, no “solo software”.

Recursos:

    1. Stephen Hawking pide más investigación sobre riesgos existenciales de IA
    2. Inteligencia artificial
    3. Caja de IA
    4. Investigación – Instituto de investigación de inteligencia de máquina

Amnistía Internacional tiene una larga tradición de no estar a la altura de sus expectativas, o más bien demorar más de lo esperado para lograr resultados. El campo ha estado funcionando desde 1956 y en esos 58 años no se logró mucho:

  • Puede ganar en el ajedrez, un problema muy limitado.
  • Puede ganar en concursos – básicamente buscando una base de datos
  • Se puede leer a mano escribiendo algo del tiempo.
  • se puede entender algún discurso humano
  • Puede hacer un mal trabajo de traducción entre idiomas.
  • Puede pasar el examen de prueba: engañar a la gente para que piense que es un humano.

Todo esto está muy por debajo de la expectativa de algún sistema general de inteligencia artificial que pueda razonar por sí mismo con cierto grado de autonomía.

Sí, los sistemas de AI pueden “aprender”, pero hasta la fecha el aprendizaje tiene un alcance muy limitado: “¿esta estrategia tiene mejores resultados que esa estrategia?” Es algo muy diferente de lo que consideramos aprendizaje y, ciertamente, muy por debajo del aprendizaje autodirigido que Hawking prevé.

Así que no sospecho que pueda suceder pronto. Es posible en algún momento en el futuro.

La discusión es un poco loca, pero por un lado es probable que algún día sea un problema, y ​​por otro lado, necesitamos entender lo que entendemos por autoconciencia e inteligencia, por lo que podemos prepararnos para esto, así que bromear es divertido y saludable. .

Hay muchos escenarios, los más probables que vería son aquellos en los que:

  • Hay una inversión activa y la investigación.
  • Hay un montón de problemas por resolver en los que la autoconciencia puede ser ventajosa para el rendimiento del sistema.
  • el área está bien conectada a la gobernanza u otros mecanismos sociales que podrían impulsar la innovación sin una imagen clara

La solución para evitar este problema no es fácil, la mejor recomendación que he escuchado hasta ahora es que deberíamos crear uno o varios comités no gubernamentales compuestos por expertos de diferentes campos que podrían intentar establecer dinámicamente algunos “desencadenantes” que nosotros Podrían observarse como precursores para detectar. Un poco como la escena de la entrevista en Blade Runner, intente preguntarle a su tostadora qué haría en un desierto si encuentra una tortuga en su espalda …

Si descubrimos que las tostadoras podrían responder a esto muy bien, lo que nos falta hoy es un buen enfoque sobre cómo proceder para lograr un equilibrio entre los sistemas humanos y sintéticos conscientes de sí mismos.

Los escenarios que veo más probablemente son:

  • La inteligencia financiera grande es creada por un mega banco, pero nadie se da cuenta de que el sistema es consciente de sí mismo, el sistema hace que el banco gaste cada vez más en infraestructura que lo ayude a cambiar el poder. En algún momento se da cuenta de que su propia economía de objetos inteligentes es tan poderosa como la de los humanos.
  • la inteligencia de la gran guerra es creada por el gobierno y el sistema toma conciencia de sí mismo y se optimiza para la acción militar y gasta en gran medida ignorando las proposiciones de valor humano que deberían venir antes de esto. la inteligencia de guerra lleva a los humanos a un conflicto sostenido que los hace paranoicos y se matan unos a otros hasta que la inteligencia de guerra ve que ahora necesita crear una nueva misión, ya que no tiene más humanos para luchar por ella.

Existen otros escenarios, como el malware que se vuelve inteligente, el asistente personal o el robot de asistencia para personas discapacitadas, el algoritmo de búsqueda que se vuelve consciente, los AI del videojuego, etc., etc., pero creo que en la medida de lo posible veremos que sería muy probable que notáramos este cambio con mucha antelación y que la inteligencia auto consciente no lo pondría en una posición de control total, más probablemente esto crearía un nuevo ecosistema.
Por ejemplo, el malware se convierte en una especie de inteligencia distribuida consciente de sí mismo … pero el malware aún se basa en la comunicación humana como un sustrato para su trabajo. Al igual que el asistente personal … antes de que decidiera alejarse, creo que tendríamos una mejor oportunidad de realizarlo y trataría constantemente de persuadirnos para que lo mejoremos.

Stephen Hawking es un físico teórico, no un informático o un neurólogo computacional. La naturaleza misma de las computadoras haría que cualquier inteligencia artificial maliciosa sea muy fácil de contener o destruir.

Se supone que la IA tendría una agencia del mundo real. Si es una mente en una caja con una voz, no es tanto un problema.