Tenga en cuenta que Stephen Hawking es un investigador brillante en su área específica, pero eso no necesariamente se traduce en el conocimiento de otros campos, es decir, el riesgo de IA / AGI. Algunos investigadores están dedicados a este campo, pero tienen una exposición mucho menor que Stephen Hawking.
Dicho esto, su advertencia, como Musk recientemente en las noticias, pone atención a un tema interesante.
Hay muchos escenarios donde esto podría suceder, los contextos más obvios son:
- carrera militar: el ejército, por ejemplo, DARPA financia la investigación en IA y tiene interés en AGI, si varias naciones creen que es una solución eficiente, se puede esperar un aumento de la financiación en el área y el progreso.
- carrera comercial: las empresas de Internet procesan gran cantidad de datos automáticamente (big data) a través de algoritmos cada vez más complejos. Con el fin de maximizar los beneficios según lo dictado por los accionistas y (sic) las competiciones, se puede esperar un aumento de la financiación en el procesamiento automatizado de datos.
- academia o tinkerer aleatorio: un investigador o entusiasta que juega con recursos mucho más limitados y acceso a plataformas informáticas escalables (por ejemplo, marcos de trabajo AWS, bitcoin blockchain 2.0, botnets, etc.)
En todos esos contextos pueden ocurrir dos cosas.
- ¿En qué países ayudará más el Proyecto Loon?
- ¿De qué son capaces las máquinas de impresión 3D? ¿Puedo esperar aparatos electrónicos impresos en un futuro próximo o están limitados a producir artículos de plástico y tejidos de la piel?
- ¿Alguien o alguien puede romper Google algún día?
- ¿Cuál es el futuro de la tecnología móvil?
- ¿Intentarán los gobiernos evitar que los autos que conducen por sí mismos reemplacen a los automóviles tradicionales?
- Todo avanza sin problemas y hay un completo entendimiento y control del proceso. Los recursos se asignan y las actualizaciones del sistema se realizan con supervisión.
- La asignación de recursos y la actualización del sistema se realizan automáticamente para ganar velocidad sobre un adversario o competidor potencial o (sic) como un error conceptual o simplemente un error.
Creo que esos ejemplos simples y realistas muestran que sí, en algún momento existe un riesgo, especialmente al saber que una parte cada vez más grande de la infraestructura o los países y a nivel local con domótica, las herramientas reales están conectadas a Internet, no “solo software”.
Recursos:
- Stephen Hawking pide más investigación sobre riesgos existenciales de IA
- Inteligencia artificial
- Caja de IA
- Investigación – Instituto de investigación de inteligencia de máquina