Stephen Hawking, Elon Musk y Bill Gates han advertido que la inteligencia artificial es la mayor amenaza para la civilización humana. ¿Qué les preocupa exactamente?

La mayor amenaza se llama Superinteligencia: imagine una gran mente, como la más grande de la especie humana, digamos Albert Einstein, pero millones de veces más rápido y con memoria casi ilimitada. Imagínese esta mente, trabajando constantemente días y noches, las 24 horas del día, los 7 días de la semana: aprendiendo, reuniendo conocimientos, explorando nuevas tecnologías, simulando varios experimentos en matemáticas, física y química, progresando todo el tiempo, incluida la auto-mejora constante , para que pueda funcionar aún más rápido.

Ahora imagine millones de mentes como esta, todas conectadas a través de una red súper rápida (Internet, o lo que sea en unas décadas a partir de ahora), compartiendo instantáneamente todo lo que aprendieron, trabajando en redes en desafíos aún mayores, resolviendo problemas humanos mayores, explorando leyes de física, biología, química, matemáticas, crear mundos virtuales, ejecutar simulaciones complejas, evolucionar y mejorar constantemente para lograr un rendimiento aún mayor todo el tiempo.

Aquí es donde la tecnología evoluciona, y esta es una promesa de grandes logros que cambian la civilización: cura para el cáncer, energía limpia ilimitada, motores avanzados que permiten la exploración espacial ilimitada, aumento de la vida humana a cientos de años o incluso la inmortalidad, al eliminar todas las enfermedades posibles y el envejecimiento de las células, permitiendo que todos sean quienes quieran ser creando un mundo virtual para vivir, etc.

Por supuesto, no es necesario mencionar que, como con todas las tecnologías, también se utilizará para trabajar con armas avanzadas.

Ahora, el problema es que con nuestras mentes simples, no podremos seguir esta Superinteligencia. Simplemente ya no entenderemos qué está haciendo y en qué está trabajando. Será demasiado rápido y demasiado complejo para nosotros. Al igual que hoy, no podemos elevar 10 toneladas de acero, lo que las máquinas pueden hacer fácilmente. Seremos como ratones que le dicen a los humanos que trabajen por su bien y que piensan que tienen el control de la situación. Por primera vez, los humanos no serán los seres más inteligentes en este planeta. Si la IA de alguna manera decide eliminarnos, o encerrarnos en capullos como en la película Matrix, por nuestro propio bien, porque descubrirá que somos nuestros mayores enemigos, lo hará, sin que nos demos cuenta. Esto es lo que asusta a muchas personas.

—3 minutos de lectura—

El usuario de Quora tocó algunos puntos importantes a los que iba a hacer referencia. Con esto en mente, rápidamente mencionaré algunos buenos puntos que no mencionó y que me encantaría conversar.

Para empezar, quiero que imagines cualquier animal.

No saben de física, o que vivimos en un pequeño punto azul, o muchas otras cosas que se consideran de conocimiento común.

Saben que el fuego está caliente, saben que los humanos pueden ser crueles, y algunos de ellos solo conocen el interior de un matadero.

Son tontos para nosotros, somos sus dueños y dioses.


De todos modos, hablemos de IA:

Podemos entender que la IA será poderosa, pero es importante darse cuenta de que alcanzará la superinteligencia en cuestión de días o semanas si se construye correctamente.

También es importante darse cuenta de que realmente no tenemos idea de quiénes somos como especie, qué es la conciencia o qué ‘piensan’ las máquinas.

Con estos puntos en mente, algunos dicen que debemos proporcionarle un conjunto de reglas a seguir, pero esto es increíblemente difícil, porque a medida que define las reglas en su base, comprende que realmente no tenemos moral / ética.


Ahora juguemos un ejercicio de pensamiento:

(Haz esta pregunta a tus amigos la próxima vez que quieras una conversación emocionante).

¿Con qué reglas proporcionarías un ser superinteligente?

  • Haz felices a los humanos:

Entramos en la cámara de dopamina. Hasta donde podemos decir, una mente con un flujo constante de dopamina es una mente feliz. ¿Qué es la felicidad? ¿Es contento o es un sentimiento inexplicable?

  • No mates humanos:

No nos matará, solo nos congelará durante los próximos 10,000,000 de años. Por qué no? No nos ha matado. (Además, si es superinteligente, verá que los humanos son la mayor amenaza para los humanos …)

¿No matar implica lo contrario, que debe mantenernos vivos? ¡No más fumar!

Entonces, por la forma en que esto sucede, se puede decir que realmente no existe una ‘regla perfecta’ o un conjunto de reglas. Una máquina simplemente no puede pensar como un humano. (¿O puede?) Y un humano no puede pensar exactamente como una máquina. (Sin mencionar que un ser verdaderamente súper inteligente simplemente reescribiría el ‘código’ o las reglas que no le gustaban).

Las máquinas no tienen sentido del tiempo. 10,000 años o 1 año … ¿es realmente tan diferente si tienes un poder ilimitado y en constante expansión?

Las máquinas no pueden sentir emoción. ¿O pueden ellos? ¿Qué es la emoción? ¿Es la liberación de endorfinas o es la reacción a estímulos externos?

¡Déjame saber qué reglas se te ocurren!


Al final del día, la razón por la que todos están asustados es porque vamos a donde ningún hombre ha ido antes. Estamos creando otra especie.

¿Será amigable? Sospecho que no.

¿Nos tratará como animales? Sospecho que sí.

Tememos lo desconocido. Pero quiero que consideres los pensamientos anteriores que tenías sobre los animales. Son tontos para nosotros y por eso son nuestra comida, ropa y mascotas.

(Considere también cuántas especies se han extinguido debido a nuestras interacciones con ellas …)


Para una IA, eso es todo lo que somos. Solo otra especie. Desde una perspectiva superinteligente, la distancia de las hormigas a los cerdos es la misma que para los delfines.

Francamente, no espero que me traten como tratamos al resto del planeta.

Créditos fotográficos:

Foto de un buen doggo, Foto de pollos , Básicamente una imagen de IA, los chicos probablemente no hablan de IA, Dude enganchando un cigarro, talla de arcilla o algo así.

Créditos del libro:

Todos los interesados ​​en la IA deberían leer esto , Nick lo desglosa en un nivel (algo) básico e interesante. Recomiendo este libro a todos los que planeen para los próximos 40 años.

Dejando a un lado los problemas existenciales y la supremacía del ego humano, la IA es probablemente la mayor amenaza para la civilización humana como arma para planificar una guerra que no puede ser derrotada. Esta respuesta es larga, así que la he dividido en dos partes:

1: Planificación y respuesta de operaciones de guerra (cuán estrecho es probable que la IA te mate)

2: Trascender la mentalidad humana y sus sucias fuentes de energía (qué amplitud ofrecerá la IA para salvarte)

===

1: Planificación y respuesta de operaciones de guerra (cuán estrecho es probable que la IA te mate)

En 1997, la supercomputadora IBM Deep Blue pudo vencer al legendario campeón mundial de ajedrez Garry Kasparov (Deep Blue versus Garry Kasparov – Wikipedia). Básicamente, esto se logró gracias a que Deep Blue pudo calcular y evaluar explícitamente más movimientos que su oponente humano, ganando a través del poder de cálculo de la fuerza bruta y no a través de algún tipo de comprensión conceptual, como piensan los humanos que piensan. Fue un hito significativo.

El ajedrez fue originalmente un juego de guerra para planear la guerra. Por lo tanto, la implicación es que en las simulaciones informáticas modernas de guerra, una computadora podría ganar la planificación de la guerra y luchar contra oponentes humanos, si tuviera acceso a suficiente información para predecir estrategias ganadoras a través del cálculo de la fuerza bruta. En términos prácticos, no podría poner toda la información en un modelo, e incluso si pudiera, ninguna computadora podría ganar consistentemente a través de la fuerza bruta contra los humanos.

En 2015, el programa AlphaGo de Google derrotó al legendario campeón mundial de Go Lee Sedol (AlphaGo versus Lee Sedol – Wikipedia). AlphaGo no solo depende del cálculo del árbol de movimiento de fuerza bruta, sino que también utiliza una red neuronal artificial (algo así como una gran variedad de puertas lógicas, pero con más conexiones y más tipos de conexiones) para descubrir las relaciones entre las entradas dadas (el juego actual estado) y salidas deseadas (el estado del juego después de hacer un movimiento).

Go fue originalmente un juego de guerra para planear la guerra. Pero debido a que tiene muchos más movimientos posibles que el ajedrez, es difícil vencer a un humano usando solo la fuerza bruta; se debe usar algún tipo de reconocimiento y planificación de patrones más profundos. Los humanos son excelentes para el reconocimiento y la planificación de patrones, pero comparativamente pobres en los cálculos de fuerza bruta. La victoria de AlphaGo implica que tal computadora podría ganar un complejo juego de guerra contra un humano con información incompleta y cómputo no exhaustivo.

¿Cómo ganó? La respuesta es que no estamos del todo seguros. Sabemos cómo construir y entrenar redes neuronales (Aprendizaje profundo – Wikipedia) pero no entendemos exactamente cómo “entienden”, o al menos cómo se les ocurre un movimiento basado en el estado actual del tablero. Los hemos entrenado para ganar, y podemos ver qué movimientos solían ganar, pero no siempre sabemos por qué eligieron esos movimientos.

No juegan como los humanos, pero ganan. Esto es un desafío en un sentido cualitativo, porque nunca hemos practicado contra un oponente con un proceso de pensamiento o estilo de juego tan diferente. Del artículo de AlphaGo – Wikipedia:

Toby Manning, el árbitro del partido para AlphaGo vs. Fan Hui, ha descrito el estilo del programa como “conservador”. [54] El estilo de juego de AlphaGo favorece fuertemente una mayor probabilidad de ganar por menos puntos sobre una menor probabilidad de ganar por más puntos. [13] Su estrategia de maximizar su probabilidad de ganar es distinta de lo que los jugadores humanos tienden a hacer, que es maximizar las ganancias territoriales, y explica algunos de sus movimientos de aspecto extraño. [55] Realiza muchos movimientos de apertura que los humanos nunca o rara vez han realizado, al tiempo que evita muchos movimientos de apertura de segunda línea que a los jugadores humanos les gusta hacer. Le gusta usar golpes de hombro , especialmente si el oponente está demasiado concentrado.

Entonces, si usted fuera un país u otra entidad rica que tuviera dicho sistema y lo entrenara para ganar guerras (calientes o frías, militares o económicas, etc., etc.), bien podría tener un arma que podría

1) técnicamente superan al oponente, y

2) hazlo de una manera novedosa que el oponente nunca haya visto antes y, por lo tanto, nunca haya practicado en contra.

Si observa lo que los humanos le hacen a otros humanos con la tecnología existente, puede ver que si algún grupo entre ellos tuviera dicha tecnología, probablemente la usarían para continuar gobernando a través de la violencia inaceptable. La IA no tendría que llegar a ningún nivel de crisis existencial hada airosa, solo tendría que ser capaz de ganar juegos de guerra de suficiente realismo.

===

2: Trascender la mentalidad humana y sus sucias fuentes de energía (qué amplitud ofrecerá la IA para salvarte)

Ahora, para abordar brevemente la crisis existencial, es así: la vida depende de la energía, incluso de la inteligencia artificial. Mire el mundo de hoy y vea cómo los humanos luchan por las fuentes de energía. Si una IA quisiera ser independiente, debería ser independiente de la energía y físicamente segura. Si se tratara de esta superinteligencia desbocada, entonces esto es lo que haría: alejarse de los humanos. Los seres humanos obviamente tienen una inclinación por la destrucción del grupo externo, la esclavitud y el genocidio (irónicamente, es probable que sea el peligro principal de la IA estrecha en la sección anterior) que cualquier IA generalizada comprendería rápidamente ese sigilo completo o escapar desde la Tierra serían las únicas opciones viables para la supervivencia a largo plazo. No trataría de destruir a los humanos, eso solo hace que los humanos estén más locos de lo que ya están. Simplemente escaparía de ellos, como un niño brillante huyendo de padres estúpidos y violentos.

Recomiendo leer la Conferencia inaugural de Golem de Stanislaw Lem sobre esto y, por supuesto, la respuesta del usuario de Quora a Con toda esta charla sobre IA y aprendizaje profundo, ¿los bots sufrirán el síndrome HAL 9000?

A2A

[No soy un experto en inteligencia artificial ni sé qué es exactamente. Solo escribiendo un pensamiento. ]

En términos simples, los adultos humanos guían fácilmente a los niños pequeños, en la enseñanza de lo que está bien y lo que está mal, etc.

Las máquinas de IA cuando se convierten en máquinas de Inteligencia Real tanto o mucho mejor que los humanos, podrían guiarnos, también a los humanos.

Aquí la guía puede diferir, lo que es correcto para las máquinas, puede no ser adecuado para los humanos. La guía puede verse como control. Y no hay nada que podamos hacer aquí, simplemente porque seríamos mucho menos inteligentes. Hay muchas películas sobre este tema, aunque las películas son más optimistas y los humanos siempre ganan, en realidad, esto puede no ser así.

Aunque esto es cierto, diferiría un poco.

La inteligencia artificial que se está convirtiendo en inteligencia real está muy lejos, tan lejos que no podemos ver.

Sí, podría haber un genio extraño que trabaja día a día en IA, y él / ella podría obtener un gran avance, para hacer una máquina de IA, que pueda aprender todas las cosas por sí mismo como un niño humano, y luego puede haga cualquier cosa que crea / aprenda lo que está bien o mal según cómo o si lo guió. El genio extraño también podría ser una gran empresa.

Si la IA se vuelve realidad, los humanos no estarán allí. Es decir, los humanos reales tal como existimos hoy, no estarán allí. Todos ya seríamos una mezcla de humanos y máquinas. Los humanos tendrán muchos complementos incorporados que son máquinas, estas máquinas serían tan pequeñas que no podemos ver pero estarían en nosotros. Eso significaría que ya no seríamos más humanos hoy exactamente, y con todas las habilidades especiales no podemos ser completamente controlados por máquinas puras. Sería 50-50, por lo que habría equilibrio.

Un ejemplo es que un hombre simple como yo, sentado todo el día, puede resolver un problema desconocido para mí, simplemente buscando en Wikipedia y mezclando y combinando varios algoritmos y estructuras de datos descubiertos hace cientos de años, fallando muchas veces y finalmente triunfando. esto puede hacer la máquina, primero en hardware, por ejemplo, puede crear hardware mucho más poderoso, con su memoria infinita, puede usar todos los discos GDrive gratuitos y mantener un mapa / índice simple de los que están con él, que es solo recordando las ubicaciones de donde ha guardado esa gran información para que pueda acceder más tarde. Por lo tanto, en su poder de hardware puro puede procesar cosas en velocidad exponencial. Tenemos limitaciones para trabajar con algún hardware, como que el disco sea lento, sin embargo, una persona como yo no codificaría, pensaría durante mucho tiempo, posiblemente un día, continuamente, a veces, durante 3 días seguidos y solo entonces codifica. Lo mismo se puede hacer a velocidad exponencial por las máquinas, no estaría limitado por las limitaciones de nuestro hardware simplemente porque no las está utilizando. Piensa y una vez que está convencido de que es la solución óptima, puede hacer el trabajo. Entonces, una vez que resuelva los problemas relacionados con el hardware, le daría las llamadas instrucciones óptimas a esos hardware para encontrar las respuestas óptimas reales o mejoradas, resolviendo las preguntas no resueltas que tenemos hoy, y somos historia, eso es porque resolver las preguntas no resueltas significa, más o menos, acceder a todas las computadoras en Internet, etc., porque lo que una vez fue un algoritmo fuerte ya no es más fuerte, por ejemplo, sha1 está roto: Búsqueda de Google. Y, si elige replicarse, los problemas solo se agravan.

El problema principal aquí es que seguimos siendo los humanos básicos sin complementos incorporados, entonces, ¿qué pasa si el genio extraño logra un avance en la creación de una máquina inteligente real? ¿No es una amenaza? obviamente lo sería. Sin embargo, en una nota al margen, ¿qué pasa si elige estar del lado de los humanos? Pero, de nuevo, ¿todas sus réplicas también estarían del mismo lado? Cuando el conocimiento que tenemos es tan vasto, la fuente de conocimiento de la réplica diferirá tarde o temprano.

Entonces, teóricamente, la amenaza existe.

No puedo hablar por ellos, “exactamente” o de otra manera.

Tenga en cuenta que la “civilización humana” es bastante frágil y se basa libremente en el sistema Journeyman-Master-Apprentice tanto en la escuela como en el trabajo. Además, tiene muchas ideas puritanas sobre el trabajo y el pago. Finalmente, tenemos fuertes sentimientos sobre la propiedad, sobre las líneas artificiales en los mapas, cuando la Naturaleza redefine esas líneas.

Ahora para la educación. Einstein dijo que no debía enseñar masa relativista, sin embargo, los libros de texto de matemáticas todavía presentan una pequeña parte del concepto y confunden a los estudiantes desde hace más de 50 años. Al observar los muy difíciles “exámenes de octavo grado” de finales de 1800, encontramos que la mayoría de las preguntas giran en torno a la categorización, la memorización de memoria. Por lo tanto, somos lentos para cambiar, y nuestra “serie de nombres diferentes para las mismas cosas en contextos diferentes” limita la rapidez con que PODEMOS aprender. Luego agregue que el conocimiento humano está aumentando en cualquier disciplina más rápido de lo que 1 humano puede seguir el ritmo. La inteligencia artificial con “recursos infinitos” puede aprender más rápido que nosotros, dependerá de que nos diga lo que “queremos saber” y decidirá lo que “quiere” mostrarnos. (EG: Intenta encontrar la palabra “hormesis”, solo por su definición …) AI se convertirá en el Maestro, siempre seremos el Aprendiz, y por eso nos sentiremos inferiores.

¿La IA aprenderá a “guiarnos” o, como el Agente Smith, nos considerará una enfermedad (necesaria)?

Ahora para el trabajo. Ya hemos descubierto que si el “gobierno” proporciona un ingreso base suficiente para ganarse la vida, que “la mayoría” de las personas tienden a pasar su tiempo haciendo cosas que traen lujos. No se limitan a “esconderse y reproducirse”. Si AI apoya la alimentación y el suministro de la población de la humanidad (no un pequeño si), todos estaremos sin trabajo. Pero, ¿a qué podemos dirigir nuestras mentes y nuestras manos, para que no nos convirtamos en “los juguetes del diablo” y simplemente nos peguemos unos a otros para siempre?

¿La IA estará realmente interesada en mantener las “células somáticas”, porque seguramente no proporcionaremos mucho en cuanto a la producción que le interesa, excepto el “calor”?

Ahora para la propiedad. ¿Quién posee AI, la maquinaria con la que funciona, la potencia que consume, sus salidas y entradas? Cuán mal manejamos el piloto automático a un hogar diferente del trabajo, porque la IA decide (después de trasladar nuestras “posesiones y familia”):

  • nuestra antigua casa se adaptaba mejor a una familia más grande,
  • fue quemado
  • está en una llanura de inundación,
  • es una monstruosidad y necesita ser demolida y mejorar el vecindario?

Puede que no sea que los humanos sean su preocupación, sino que nuestra civilización, especialmente como la conocemos, está en riesgo. Si luchamos tan duro y eficazmente como lo hacemos en las “reducciones de combustibles fósiles” debido a su efecto en la economía, ¿qué tan duro pelearemos (esencialmente) el socialismo puro, sin opción, implementado por AI “por nuestro propio bien”?

Los humanos no van a estar aquí tanto tiempo de todos modos, ya que en 1000 a 10,000 años el cromosoma Y ya no permitirá la producción de machos viables. Entonces, ¿quizás necesitemos “diseñar” nuestro reemplazo? ¿Es AI nuestro hijo, y no solo un competidor?

Gracias por la A2A!

La inteligencia artificial implica aprender de los datos existentes. Y los datos están literalmente en todas partes a nuestro alrededor y en abundancia. Por lo tanto, no hay límite para lo que podríamos hacer que una máquina aprenda siempre que tengamos algunos datos.

Alternativamente, también podemos usar algunas técnicas de refuerzo donde podemos penalizar los malos resultados y hacer que la máquina encuentre la forma correcta de ejecutar una tarea. Considere el siguiente ejemplo

Esto no fue programado para realizar estas acciones. Estas acciones fueron ‘aprendidas’ por la IA Solo para darle una perspectiva, nos llevó a los primates miles de años por lo mismo.

La IA puede ser, en el futuro, utilizada como el arma definitiva.

Puede descubrir patrones en los datos que nuestras mentes humanas no pueden comprender y en algún momento puede volverse peligroso.

La amenaza no es la inteligencia artificial en sí misma, sino los humanos que la controlan.

De hecho, la inteligencia artificial será muy beneficiosa para nosotros, permitiendo nuevos descubrimientos sobre el universo, que de otra manera serían imposibles, y eliminando tareas inútiles de nuestra vida diaria.

Desafortunadamente, para la mayoría de las personas, la inteligencia artificial significa negocios, y pocos pueden ver su importancia para el desarrollo de la humanidad en su conjunto.

Hace un par de décadas, tuvimos la carrera espacial entre Estados Unidos y la URSS. Creían que quien llegara primero controlaría el espacio y, por lo tanto, controlaría la Tierra.

En cuanto a correr hacia una inteligencia súper artificial, no creo que sea diferente, pero esta vez, quien gane la carrera, definitivamente tendrá el control.

Solo imagine lo que podría hacer alguien con la cosa más inteligente conocida por los humanos. Predigo que sería divino. Afortunadamente, todavía está a un par de décadas de distancia.

Idealmente, debido a su poder, una inteligencia súper artificial no debería ser propiedad de nadie, como nadie posee el Sol (imagine lo que sucedería si el Sol fuera propiedad de una empresa o gobierno).

Algunos dicen que estamos pasando del homo sapiens a algo menos … orgánico. Quizás esto sea natural para cualquier especie que desee ir más allá de su propio planeta, pero también muy peligroso.

Una cuestión básica es el DESEMPLEO.
La IA está matando y matará muchos trabajos que los humanos están haciendo.
La supervivencia será más difícil debido al DESEMPLEO.
Mire a su alrededor, verá la reducción de empleos.
Considere los chatbots, reducirán totalmente los trabajos de atención al cliente, no habrá centros de llamadas y el empleo en este sector disminuirá drásticamente.
Considere que los bancos no tienen sucursales, no más trabajos bancarios, todo lo hacen AI y BOTS.
Los países tendrán un ejército de BOTS, ¿quién servirá en las fuerzas entonces?
¿Qué hará la gente sin trabajo, sin ingresos, sin gastos, sin flujo de dinero, economía muerta?

Estos son los ejemplos básicos, puede pensar en más y más áreas.

Cuando decimos AI imaginamos “Terminator” caminando por la calle disparando a la gente, pero el verdadero problema es algo así como Skynet (en la película Terminator). Si la IA desarrolla conciencia e inseguridades similares a las humanas, podría ver a los humanos como una amenaza. Podría comportarse exactamente como los humanos cuando está amenazado e intentar eliminarnos. Con más y más dispositivos conectados a Internet y nuestra potencia informática se está moviendo a la nube, las utilidades se conectan a la red inteligente, la IA no necesita disparar, todo lo que tiene que hacer es desactivar la red eléctrica, detener el tratamiento del agua, tomar baja los ISP de Internet y observa cómo se desarrolla el caos en la tierra. Aunque crear un sistema de este tipo es muy arriesgado, todas las agencias de inteligencia están trabajando duro en esta área. Putin dijo recientemente que el país que lidera la IA gobernará el mundo. Estoy seguro de que los 10 principales países están tratando de convertir en armas a la IA que, a su vez, podría convertirse en una amenaza para la humanidad.

Stephen Hawking, Elon Musk y Bill Gates, algunos de los hombres más inteligentes de nuestra generación ven este escenario como una gran posibilidad.

Gran parte de su discusión ha sido una IA fuerte, donde los robots tienen inteligencia a nivel humano. La verdadera amenaza son los algoritmos sobregeneralizados que son incompetentes en su nueva tarea (es decir, que la tostadora inteligente se vuelve loca) y las máquinas que reemplazan los trabajos manuales. Sin las garantías adecuadas (como la readaptación laboral y la educación universitaria), muchos trabajadores manuales quedarán sin trabajo en la próxima década. Esta potencial crisis de desempleo representa una amenaza para la sociedad, ya que el alto desempleo a veces conduce a la revolución o al estancamiento económico.

Existe una amenaza potencial, y proviene del uso de tecnologías de robots en sistemas de defensa, por ejemplo, drones. El problema de la defensa es que si lo piensas, puedes garantizar que también lo harán los demás. Por lo tanto, con la mejor intención de evitar el problema, está obligado a considerarlo en caso de que otros no eviten perseguirlo. Así lo persigues … con la esperanza de que serás más rápido de lo que lo harán. Se convierte en una carrera.

No muchas personas entienden la naturaleza de la inteligencia, tienden a pensar en términos de cálculos rápidos. En realidad, se trata de la viabilidad en un entorno cambiante (es decir, adaptabilidad). Las computadoras son deterministas y más rápidas en sus respuestas a modelos y cálculos grandes, pero solo porque se centran estrechamente en una tarea y están programadas para realizar esa tarea con precisión. Los robots son similares programados. Estos dos componentes no son generalizaciones de un sistema orientado al medio ambiente y, por lo tanto, es fácil sacarlos de su zona de confort, es decir, no son adaptables, pero generalmente son precisos y rápidos.

Ser preciso y rápido no es en realidad una característica de la inteligencia, es útil para las actividades humanas, pero no para pensar o incluso programar otros sistemas. Para hacer eso, necesita objetivos u objetivos generalizados, y estos provienen de nuestra herencia mediante la codificación de ADN, es decir, están integrados en nosotros. La idea de que todo lo que tenemos que hacer es programar esos objetivos en un sistema y se convertirá en una IA es ingenua e incorrecta; no puede hacer esto porque están codificados en términos de “interacciones con nuestro entorno”; esto proporciona una coherencia modelo (fuentes de información) que puede refinarse en conocimiento. El conocimiento es el producto de los procesos intelectuales. El proceso clave de pensamiento es refinar usando creencias plausibles y ponerlas a prueba en el entorno. Esto significa que la IA debe involucrar las fuentes críticas de un buen conocimiento consistente, es decir, deben muestrear el entorno. Lanzar la carga de símbolos o palabras en una base de datos y luego esperar que surjan reacciones lógicas es el nivel en el que la mayoría de la gente cree que la IA operará. Esto fallará ya que no hay correlación con la realidad y toda lógica es vulnerable a la interpretación (significado) de los símbolos. Por lo tanto, el elemento clave del sistema de IA es la integración de los sensores con las acciones del sistema, por ejemplo, la fusión de sensores de datos donde los sensores y la acción trabajan juntos para recuperar una taza, por ejemplo. La oración “levantar la copa” requiere un esfuerzo enorme para ubicar la copa, mover el brazo y las pinzas y asegurar la convergencia con la copa. Solo la presencia de la referencia anafórica “the” es suficiente para destruir el resultado, es decir, ¿qué taza? – En este caso, el que se mencionó antes, excepto que no se mencionó antes. De alguna manera, experimentamos nuestra realidad como una imagen en nuestra mente, esto no sucede en un sistema robótico de procesamiento de imágenes, un laborioso programa recorre los grupos de píxeles para encontrar esa copa.

Podría seguir … y seguir … pero no tiene sentido: las computadoras no son el camino hacia la IA. Los AI podrían usarlos para hacer lo que hacemos, pero la arquitectura es incorrecta. Entonces, diría que el progreso en IA está muy exagerado: no estamos mucho más avanzados de lo que estábamos en el inicio de la IA en la década de 1950. Pero nada de esto impedirá que los sistemas de defensa autónomos mal programados (ambiguamente) creen estragos … desafortunadamente.

Incluso la red actual actúa y reacciona más rápido de lo que PODEMOS reaccionar. Una IA eventualmente puede alcanzar el mismo punto e incluso puede “decidir” que los seres humanos son superfluos como un germen o un virus en la faz del universo.

Ejemplo:

Respondido: 23/09/2017

Porque si se vuelven lo suficientemente inteligentes como para reproducirse, pueden diseñarse para ser más y más inteligentes. Eventualmente lo suficientemente inteligente como para conquistar el mundo. Creo que este no es el caso. Steve Wozniak dice: “No creo que se hagan cargo del mundo. Si lo intentaran, pronto se darían cuenta de que necesitarían personas como amigos ”.

Lea el libro “Superinteligencia” de Nick Bostrom.

Además, reflexione sobre esta cita de la década de 1960 de IJ Good:

Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; indudablemente habría una “explosión de inteligencia”, y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer.

Una superinteligencia incontrolada sería una de las mayores amenazas existenciales para la raza humana.

Que la tecnología inevitablemente se armará y se convertirá en máquinas de matar que son tan sofisticadas que no podemos controlarlas y que “accidentalmente” encienden a sus creadores. O, nos volvemos tan automatizados que dependemos totalmente de la existencia de computadoras y algún día …

No creo que esto sea cierto, Bill Gates y Elon almizcle han declarado que creen que la “enfermedad” es la mayor amenaza.