Escriba “miedo a la IA” en Google y verá docenas de artículos en los que esto ya ha comenzado a estudiarse. Ya en 1970, esto también era un miedo que llegó al punto de hacer una película al respecto. ver:
Coloso: El Proyecto Forbin
Esto fue mucho antes de Matrix o HAL.
El miedo, como lo expresa la respuesta de Juan Romero, es un miedo humano común, pero tenga en cuenta que los investigadores de software creen que es posible incorporar la ética en el diseño de una computadora. En realidad, para que la súper IA concluya que los humanos deben ser destruidos es, en sí misma, una conclusión ética que tuvo que extraerse de la programación de la IA: ¿por qué concluiría eso de otra manera a menos que se le diga que lo haga? Hay algunos estudios serios sobre el diseño de una IA con ética para que aplique sus habilidades de IA a los mejores problemas humanitarios.
- ¿Cuál es la importancia de un humano en el mundo?
- ¿Cuál es el secreto mejor guardado de la humanidad?
- Si la raza humana debía continuar como ahora, ¿cuánto tiempo le queda?
- ¿Qué debería hacer una persona muy inteligente de 24 años, con acceso a importantes recursos financieros, para contribuir mejor a la humanidad? (lea los detalles a continuación)
- Si los humanos supuestamente están evolucionando, ¿por qué persiste la violencia?
Dicho esto, también debo señalar que ya se están realizando esfuerzos para crear una súper IA que pueda aprender por sí misma. Se llama SAI (IA de autoaprendizaje) e incluye código de auto-modificación y código de auto-mejora utilizando el más nuevo aprendizaje automático, aprendizaje profundo, minería de datos, reconocimiento de patrones y big data. El objetivo es imitar el cerebro humano al permitir que la IA aprenda espontáneamente y pueda extrapolar imágenes y conceptos de entradas anteriores. Por ejemplo, se le podría dar acceso a cantidades masivas de textos médicos, imágenes y discursos y luego podría aplicar esto para hacer un diagnóstico preciso de las condiciones que nunca había encontrado. Este y otros sistemas de IA tan complejos se están buscando en este momento.
Si una súper IA tiene acceso a grandes datos, una versión programada de la curiosidad, la capacidad de asimilar imágenes, texto, audio y video, un aprendizaje automático profundo y pautas éticas, se especula que descubrirá, resolver, resolver y predecir más y mejor en un año, que en toda la historia humana anterior. Este es un objetivo que presenta tantos beneficios que hay docenas de gobiernos y organizaciones que están altamente motivados para perseguir este resultado.
Imagínese si DARPA, o CIA o NSA o Sandia Labs, o LLNL o PNNL, permitieran a una computadora AI acceder a todos los datos recopilados por la NSA, a toda la Biblioteca digital del Congreso, a todas las bases de datos en línea de periódicos, bibliotecas de investigación, bases de datos demográficas , NCIC, datos de tarjetas de crédito, datos de marketing, datos de Goggle, etc. ¿Qué podría resolver o concluir?
Como es típico de la mayoría de los esfuerzos humanos, nuestras habilidades técnicas y científicas avanzan y se desarrollan mucho más rápido que nuestras respuestas éticas y morales a esas habilidades. Es por esta razón que varios modelos de computadoras sociales han predicho que la raza humana y, de hecho, cualquier ser inteligente se destruirá a sí mismo antes de lograr un viaje interestelar. Es por eso que SETI no ha tenido éxito.
Si hacemos lo que hemos hecho en toda nuestra historia humana pasada, seguiremos adelante con la creación de una súper IA antes de entender cómo controlarla. He trabajado en este campo la mayor parte de mi carrera y estimaría que estamos a menos de una década de lograr esto.