¿Es la IA una amenaza existencial para la humanidad?

Hay muchos puntos a considerar en este sentido. Pero no creo que sea una amenaza para la humanidad.

¿Cuál será el paso más avanzado de la humanidad? Bueno, es eso lo que crea fenómeno natural en herramientas hechas por el hombre. Esta será la mayor bendición hasta la fecha. Si podemos crear todas las percepciones naturales en sistemas artificiales que transformarán nuestro mundo a fondo. Todos estos futuros prospectos se estudian bajo el techo de la INTELIGENCIA ARTIFICIAL.

Como en este universo, nada viene con un lado. Todos los sistemas, especialmente los sistemas hechos por el hombre, son bidireccionales, uno con bendición y otro con maldición. Pero este sistema de doble dirección depende totalmente de su propósito. El cuchillo en su cocina que tiene el propósito principal de cortar cosas editables, pero puede ser la amenaza mortal para alguien. Incluso el polvo blanqueador en su casa es suficiente para hacer una bomba mortal (reacción: NaClO + 2HCl-> Cl2 + H20 + Nacl) ¿es correcto decir que un cuchillo de cocina o polvo blanqueador es una amenaza para la humanidad? ¡Definitivamente no! Está totalmente basado en el uso del usuario.

Hubo muchos libros que afirman que la superpoblación matará de hambre al país como India en el futuro debido a la falta de producción de grandes masas. Un libro titulado “Population pump por Paul enrlich” afirmó que la tasa de producción de alimentos no puede satisfacer los requisitos de una masa abundante. Pero lo que es el futuro es que India no solo es suficiente para alimentar a su gente sino que también exporta su producción como el trigo a los países vecinos. El hombre llamado Norman Borlaug trajo una solución para esta hambrienta amenaza y la India celebró su revolución de trigo en 1968. Y Norman fue premiado por su noble precio. Este es el mejor ejemplo que nos muestra que cada posible amenaza tiene una solución excelente, por lo que hacer una visión totalmente negativa de cualquier avance en el salto humano es totalmente irrelevante, por lo que también es muy cierto en este aspecto. Considere los siguientes puntos:

·

¿La IA será una amenaza para la humanidad?

Si vamos en el pasado, la historia siempre pone algunos eventos notables en las revoluciones de la ingeniería. Uno a fines de la década de 1880 y principios de la década de 1890; La guerra de las corrientes tuvo lugar entre dos genios, Thomas Edison y Nickola Tesla, uno con idea de DC y otro con la corriente de corriente alterna. Cuando la Compañía Westinghouse Electric, que con Tesla estaba extendiendo la red de corriente de CA de alto voltaje para largas distancias, la compañía de Edison afirmó a principios de 1888 que la CA de alto voltaje es la amenaza más peligrosa hasta en la historia humana. Edison estaba en pleno apogeo para demostrar que la corriente de CA tiene un lado oscuro en el futuro. Daba muchas entrevistas para un artículo de noticias sobre sus temerosas opiniones sobre la revolución de la CA, pero cuando Tesla con esperanzas positivas estableció los Laboratorios Springs en 1899, después de muchos meses de éxito, logró generar un flujo de CA controlado que revolucionó todos los aspectos de nuestra vida. Ahora nos sentimos agradecidos a Tesla por sus esfuerzos para brindar una herramienta tan poderosa que trajo la revolución industrial. Si el destino fue con Edison, tal vez no tenemos tal cosa maravillosa de AC. Por lo tanto, no es incorrecto decir que ir un paso por delante de esta era de la generación como el avance en el campo de la IA será el mejor beneficio que tenemos hasta.

·

¿La IA nos vencerá en el futuro?

¿La pregunta principal que está surgiendo recientemente acerca de la IA es que nos dominará? Pues en este sentido el peor error que estamos cometiendo es

Estamos mezclando dos aspectos de la tecnología uno es AI y otro es AUTONOMÍA. Esas dos cosas tienen lados diferentes. Tomemos el ejemplo de la calculadora, es el dispositivo que se inventa para cálculos complejos y grandes que es difícil y nos lleva mucho tiempo, pero ¿cuál es la autonomía de la calculadora? Es totalmente cero. La calculadora no funciona sin ninguna entrada. La AI pura también se basa en la entrada, pero es varias veces más inteligente que la calculadora. AI funciona según las instrucciones del usuario, lo que significa que está creado para un tipo particular de trabajo, por lo que siempre tiene el control total de las instrucciones del usuario. Pero la amenaza que preocupa a algunas personas es la autonomía de las máquinas. El porcentaje de autonomía que se dará a las máquinas es el tema de elección. Entonces, la conexión cruzada entre AI y AUTONOMÍA es engañosa en nuestros pensamientos. Estamos en la etapa más temprana de la IA. Tenemos que ir más allá.

Hay un futuro brillante que nos espera, donde el análisis perfecto de la enfermedad y la cura solo se pueden obtener observando muestras de sangre, el transporte autónomo más seguro y rápido, y mucho más. Tenemos que ir muy lejos en esto, pero estamos perdiendo un punto debido a este miedo confuso. Por supuesto, en este mundo de virus, delitos cibernéticos y armas cibernéticas, acojo con satisfacción un debate abierto y vigoroso sobre qué nivel de autonomía otorgar a las computadoras, pero ese debate no es sobre la investigación de AI. Si los temores injustificados nos llevan a restringir la IA, podríamos perder avances que podrían beneficiar enormemente a la humanidad, e incluso salvar vidas. Permitir que el miedo nos guíe no es inteligente.

¿DEBEMOS RESTRINGIR EL AVANCE EN LA IA?

Argumentaré esta afirmación haciendo solo una pregunta, ¿qué harás cuando te muerda una serpiente? Bueno, la respuesta es simple, encontrará ayuda médica inmediata al tomar antibióticos. ¿Qué son los antibióticos? Ellos son el único tipo de veneno también. Por lo tanto, para matar venenos tenemos que usar otro contador de venenos, por lo tanto, si confiamos en que enfrentaremos una gran amenaza en el futuro debido a la alta influencia de la IA, entonces solo una declaración es adecuada a este respecto que “PARA MANTENER LA AI. “ Por lo tanto, la restricción en el avance de la IA será más costosa para nosotros”. “El mundo no es malo porque las personas malas hacen cosas malas, pero las personas buenas no están haciendo cosas buenas”. Como sabemos, los males como el terrorismo siempre son daños, potencialmente debido al mal uso de la tecnología, por lo que si estamos encontrando el escudo para esta mala inteligencia artificial, sólo hay una solución “BUEN AI”. Por lo tanto, es mejor para nosotros avanzar más en beneficio de la seguridad de la humanidad.

¿ESTÁ AUMENTANDO EL ROBOTICS DE ALTA CALIDAD DESTRUYENDO EL EMPLEO?

Para mirar hacia adelante en esta preocupación, regrese a la etapa inicial de la inteligencia humana, cuando estábamos haciendo nuestro trabajo principal como solo agricultura. En ese momento el lema principal de la humanidad era producir alimentos y consumirlos. Poco a poco fuimos evolucionando y buscando otros campos creativos de la creatividad humana como la planificación agrícola, el arte, el armamento de piedra como en la Edad de Piedra en busca de protección, medicinas, cerámica y mucho más. Debido a esto, nuestra área de potencial de trabajo aumentó de la agricultura tradicional a muchos trabajos artísticos y reflexivos. Cuando sucedió la revolución industrial, esto afectó más ampliamente a la creatividad humana. Tomemos un ejemplo, hay una fábrica de zapatos en la etapa previa a la revolución industrial. Antes de la revolución, en la fábrica, un grupo de trabajadores tenía la tarea de crear solo una parte del zapato. Todos los trabajadores en esta división solo están haciendo este trabajo continuamente. Su potencial solo se limitaba a hacer ese tipo particular de trabajo, pero cuando la revolución industrial tuvo lugar a principios del siglo XIX, esos trabajadores fueron reemplazados por máquinas. Ahora piense, sí, era cierto que la máquina destruyó su empleo, pero creo que también creó muchos más campos para ellos, como explorar la idea y el concepto para crear otras partes de zapatos también. Hubo oportunidad para que aprendieran cómo operar esa máquina y ampliar sus habilidades. Lo que expongo de este ejemplo es que el desarrollo de tecnología destruye los trabajos menos creativos pero abre la ventana para cosas más creativas. Si está obteniendo oro en el intercambio de plata, entonces ¿por qué no debería aprovechar esta oportunidad de platino? Tan cierto en el aspecto de la IA también. Destruirá trabajos que son menos creativos, pero también creará muchas más oportunidades alucinantes para toda la raza humana.

AI mejorará la productividad de muchos trabajos, eliminando millones de puestos calificados de nivel medio y bajo. Pero también creando millones de nuevos puestos de gestión altamente cualificados.

¿Qué nos dará la AI en el reemplazo de las máquinas poco inteligentes al tomar el riesgo de dominar?

En mi opinión, es como si corriéramos el riesgo de perforar pequeñas inyecciones en nuestro cuerpo para combatir enfermedades muy dañinas. Si vamos a ser muy beneficiosos en el futuro debido a nuestros pequeños esfuerzos en el presente, ¿qué hay de malo en hacerlo?

AI tiene vastos límites. Ocupará casi todas las áreas de nuestro día a día. Algunos ejemplos:

·

De acuerdo con la entrevista de BUSINESS INSIDER , INC de Pieter Abbeel, profesor de UC Berkeley, el cofundador de Gradescope dice que los robots nos mantendrán más seguros, especialmente ante desastres. Permitirá reducir drásticamente, tal vez incluso llevar a cero, y habilitar la respuesta ante desastres en situaciones peligrosas, por ejemplo, la fusión nuclear en la planta de energía de Fukushima. Según www.britannica.com, fue la segunda peor catástrofe de la central nuclear del mundo que afectó el área de unas 60 millas de perímetro. En los días que siguieron, unos 47,000 residentes abandonaron sus hogares. Debido al alto nivel de nivel de radiación, permaneció durante 2 años como inadecuado para la vida humana. Si tuviéramos alguna defensa de la IA en el momento del desastre, podríamos salvar muchas vidas y disturbios en esa área.

·

Según los datos recopilados por THE INDIAN EXPRESS del ministerio de transporte por carretera y carreteras, el gobierno de la India, aprox. 17 muertes ocurren en la carretera cada hora. Según los datos citados en el informe, el país registró al menos 4, 80,652 accidentes en 2016, lo que llevó a 1, 50,785 muertes. ¡Piensa cuáles son los números desastrosos que son! Dado que los grandes centros tecnológicos como Google están desarrollando una IA autodirigida, si podemos hacerlo a la perfección, podemos guardarla por encima del gran número.

·

Según una investigación realizada por científicos informáticos de la Universidad de California, será posible resolver problemas complejos y delicados, como el cambio climático.

·

Habrá una IA en el futuro que no solo puede leer el texto, sino también entenderlo.

·

Hay 37 millones de personas en todo el mundo que son ciegas y más de 15 millones son de la India. La inteligencia artificial de Microsoft será el mayor milagro para ellos en el futuro.

·

La inteligencia artificial, si se usa adecuadamente podría evitar el peligro de la humanidad, el robot inteligente podría funcionar en condiciones que no son adecuadas para el ser humano, como el agua, las minas profundas, la plomería o el espacio exterior.

UNA

Estoy seguro de que podemos encontrar muchos dominios de investigación que, si no se hacen con cuidado, pueden ser potencialmente Más peligroso que las armas nucleares. Y sabiendo que la cantidad de armas nucleares que tenemos en este momento es más que suficiente para deslizar la Tierra varias veces, es más peligroso que eso o incluso un poco menos peligroso no hay tanta diferencia.

Entonces, en cierto sentido, sí, tiene razón “X es potencialmente muy peligroso y hay que tener cuidado de no abrir la caja de pandora”. ¿Eso significa que debería dejar de explorar X entonces? Lejos de eso, ya que no explorarlo no significa que las personas dejarán de explorarlo voluntariamente o simplemente lo ignorarán. Pero esto también se aplica a muchas Xs y AI es solo una de ellas.

Tiendo a creer que la historia tiende a repetirse, especialmente en términos de comportamiento humano, y también tiende a repetirse muy rápidamente cuando hablamos de tecnologías jóvenes (como hoy en día Ciencias de la Computación). Sabiendo esto, les recordaré a las personas sobre el invierno de la IA en los 80’s. Entonces, ¿qué pasó entonces?

En los años 60 y 70, la gente comenzó a explorar diferentes vías para explorar la IA: una de ellas fue lo que la gente ahora llama: “Buena Vieja AI” en torno a la lógica de primer orden y representada por LISP, pero también hubo algunos trabajos sobre conexionismo y otros aspectos. El conexionismo es interesante porque llegó al “invierno” antes, pero reapareció gracias a la neurociencia y al crecimiento de la potencia y la distribución de la informática (recuérdese algo … sí, esto es lo que la mayoría de las personas asocia a la IA en la actualidad).

Ahora volvemos al invierno. Un aspecto importante de esto fue que antes de que ocurriera el “invierno” había una gran exageración (de hecho, la gente hablaba de que la computadora era tan inteligente como humana y que podía resolver problemas locos como el ajedrez, etc.). Tenga en cuenta que con exageración También hubo muchas personas escépticas o temerosas de lo que implicarían tales evoluciones (¿cuándo fue 2001: A Space Odyssey (película) se produjo de nuevo? 1968). de todos modos, todos soñaban con esta increíble inteligencia artificial y lo que podía hacer universalmente y así … se desarrollaron muchos sistemas expertos que se ofrecieron como la solución definitiva para tratar con datos complejos (no big data, pero el paralelo es muy fácil de hacer).

Luego, a principios de los 80, la gente se despertó con una gran resaca al darse cuenta de que “oh, mierda, esto es en realidad una pesadilla para diseñar y mantener. Literalmente, necesitas un doctorado en el campo para sintonizarlos correctamente” esto tuvo un efecto en cascada de engaño y menos fondos. etc., etc. La investigación de AI regresó desde un punto de vista más razonable, buscando financiamiento a través de poner más énfasis en una solución a un problema específico que en la investigación fundamental que estaba debajo. Y aquí es donde estábamos hasta ahora.

Y luego, los nuevos (re) jóvenes descubrieron que se puede aprender cualquier cosa conectando múltiples capas (suponiendo que debería ser fácil generalizarlo para planificar varios pasos hacia adelante en múltiples niveles de abstracción … porque si es fácil en 2/3 niveles, ¿por qué? ¿Debería ser difícil a los 7 con una mirada hacia adelante que abarque varias acciones propioceptivas?) o aprender modelos gráficos estadísticos que podrían usarse para la inferencia y probablemente sean resistentes al ruido (olvidando al mismo tiempo que muchas de estas situaciones pueden ser P-ESPACIO a indecidible). No estoy diciendo que tampoco esté mal, pero al ver la reacción del público en general y los medios de comunicación, no puedo evitar sentir algo de “déjà vu” aquí con gran Hype / Miedo a menudo será una gran decepción / relevo.

Finalmente, cuando vea quiénes son los autores de los diferentes libros presentados (o de cualquier otro libro que forme parte de las exageraciones) y que ninguno de los temas, que yo sepa, se reconozca en el campo de la IA (tomo AAAI como punto de referencia lamento ser tan “clásico”, pero incluyen investigaciones en todos los campos que tanto exageran hoy en día. Voy a decir que no debería preocuparse demasiado por la amenaza de la IA, es probable que aún le queden al menos uno o dos inviernos. .

Buena pregunta. Mi trabajo no está bastante alineado (Algoritmos evolutivos), pero a través de una mezcla de interés, conociendo personalmente a los investigadores de la IA y campos conectados como Vida artificial y Neuroevolución, creo que puedo darle una patada.

Ahora acerca de tu pregunta:

¿La mayoría de los desarrolladores o expertos de AI están de acuerdo en que la IA representa una amenaza existencial para la humanidad?

Respondiendo a esto directamente, ha habido algunas encuestas de desarrolladores de IA en las que podría estar interesado:

  • Esta encuesta de 2014 tuvo en cuenta a los investigadores de las principales conferencias de AI (PT-AI, EETN, AGI) y a los 100 investigadores principales según la cita. Hubo alrededor de 170 respuestas. Descubrieron que muchos investigadores esperaban que se alcanzara la IA para el año 2100. Echa un vistazo a este gráfico de esa encuesta:

HLMI = “Inteligencia de máquinas de alto nivel”, una inteligencia artificial más débil que la Superinteligencia. Se puede ver que más del 70% de los investigadores encuestados tienen un 90% de confianza en la aparición de la IA para el 2100. Para un 50% de confianza, el número de investigadores aumenta al 90%. Así que podemos ver que muchos investigadores de la IA piensan que es probable en el próximo siglo, pero por otro lado, no creen que esté garantizado.

Con respecto a la “amenaza existencial para la humanidad”, el 18% de las encuestas de los investigadores esperaban que la IA fuera extremadamente mala para la humanidad, mientras que el 13% esperaba que fuera equilibrada para la humanidad. Sin embargo, el otro 69% estaba en la categoría de “neutral” a “extremadamente bueno”. Así que los investigadores de AI parecen, en general, esperar cosas positivas del desarrollo de la IA, pero reconocen que existen riesgos.

  • Esta encuesta (2017) aborda un aspecto diferente, la economía. La encuesta es de 352 investigadores que asistieron a las principales conferencias de AI en 2015 (NIPS e ICML). Descubrieron que los investigadores predicen, en promedio, un 70% de probabilidad de que la IA supere a los humanos en 2100; este es un número similar al de la última encuesta. Quizás el hallazgo más interesante es este:

Los investigadores predicen que la IA superará a los humanos en muchas actividades en los próximos diez años, como traducir idiomas (para 2024), escribir ensayos de escuela secundaria (para 2026), conducir un camión (para 2027), trabajar en el comercio minorista (para 2031), escribir un libro de gran venta (para 2049) y trabajar como cirujano (para 2053).

¿Estas automatizaciones en el lugar de trabajo representan una amenaza existencial?

TL, DR: La mayoría de los investigadores de la IA esperan que la IA surja alrededor de 2100 y reconocen cierto grado de amenaza para la humanidad.

.

Creo que el autor de la pregunta también estaba haciendo esta pregunta de manera implícita, y es difícil discutir los resultados de esta encuesta sin discutir esto:

¿Estás de acuerdo en que la IA representa una amenaza existencial para la humanidad?

Quiero hablar de dos amenazas existenciales que la mayoría de las personas cree que plantea AI, una de las cuales responderá a la pregunta que planteé anteriormente sobre la automatización:

  1. Apocalipsis impulsado por la IA. Piensa en la Matriz, Terminator o I, Robot. Creo que esto es muy improbable, y no es porque hagamos algo estúpido como implementar de manera preventiva las 3 leyes de Asimov (sus historias fueron, después de todo, un estudio de caso en el que las reglas absolutas para la IA no funcionan). Creo que la gente anticipa / imagina estos eventos porque asumen que AI será como nosotros y que será como nosotros. Una suposición justa a primera vista; Las máquinas construidas por humanos defectuosos podrían ser defectuosas como los humanos. Pero para entender por qué es poco probable, debes entender las tendencias actuales en IA:
  1. En este momento, muchos rumores están relacionados con la idea de un aprendizaje profundo . Aquí es donde tomas enormes conjuntos de datos y entrenas una Red Neural Artificial en esos conjuntos de datos durante mucho tiempo (cientos de épocas, a menudo demoran semanas en ejecutarse). Después de este proceso de aprendizaje, obtiene redes neuronales artificiales más grandes capaces de resolver problemas del mundo real, por ejemplo, reconocimiento facial, análisis de imágenes, clasificación, mucho mejor de lo que son capaces los humanos. La inteligencia artificial no surgirá espontáneamente de este enfoque basado en datos para el aprendizaje automático, pero nos dice que cuando lleguemos a ese punto, tendremos un catálogo de conjuntos de datos para entrenar y probar nuestros potenciales AI. Nuestras AI, cuando lleguen, estarán expuestas y bien capacitadas para grandes cantidades de datos del mundo real. Sabrán mucho más de lo que cualquier humano individual podría tener, y tendrán muchos ejemplos a considerar al hacer deducciones lógicas. La posibilidad de un fallo lógico en el lado de la IA (lo que lleva a un evento apocalíptico, a la I, Robot) parece poco probable, ya que la falta de previsión por parte del desarrollador probablemente será contrarrestada por datos del mundo real para que la IA pueda aprender.
  2. Se pone mucha esperanza en los métodos de aprendizaje incrementales. Considere la búsqueda de árboles de monte-carlo (aquí está MCTS tocando mario), Q-Learning (aquí hay un profundo Q-learning tocando Atari) o neuroevolución (aquí hay un algoritmo genético que juega un juego de carreras). Estos son todos los métodos que recompensan el buen comportamiento y castigan el mal comportamiento, diseñando incrementalmente buenos agentes para resolver (actualmente) problemas simples. Realmente no creo que podamos lograr la IA de otra manera, parece imposible diseñar la conciencia a mano dado el tamaño de los cerebros humanos (un objetivo de la complejidad computacional) y las limitaciones de nuestra propia inteligencia. Ahora, nadie está intentando resolver la IA general con estos métodos (es demasiado difícil), pero cuando llegue el momento es difícil imaginar que los desarrolladores no incorporarán la moralidad y el comportamiento en un sistema así. De hecho, es concebible y, en mi opinión, es probable que la IA se desarrolle / forme hacia ideales como el pacifismo, el utilitarismo y el liberalismo. Una IA que es naturalmente contraria a la violencia y la opresión es poco probable que vaya a buscar códigos de lanzamiento, ¿sabes?
  • La crisis económica impulsada por la IA. Imagínese, llegamos al 2050 y todos los trabajos de cuello azul y blanco han sido reemplazados por máquinas. Sigue el desempleo masivo, creando la brecha más grande en la riqueza de la historia, entre quienes poseen máquinas y quienes no. Ya vemos soluciones emergentes de AI para problemas del mundo real; conducir (poner en riesgo a los conductores de camiones y taxis) y servicios (poner en riesgo a los trabajadores de la caja). es posible? ¿Es esto probable?
    1. La economía sugiere lo contrario. Las corporaciones dependen de los clientes que tienen dinero. Si todos están desempleados, las corporaciones no tienen a quién vender ni ninguna motivación para producir bienes. Por lo tanto, este modelo económico no es sostenible a largo plazo y, en teoría, debería colapsarse si alguna vez se lo intenta. Dolor a corto plazo en el peor de los casos.
    2. Ya estamos adelantando y adaptándonos. El hecho de que nuestro modelo económico actual combinado con lugares de trabajo automatizados sea inviable, no significa que no podamos tener automatización en el lugar de trabajo. Si los beneficios de la automatización se distribuyen a todos, entonces podemos tener una economía viable donde los humanos solo … trabajen menos. Me refiero a los ingresos básicos , donde los impuestos proporcionan fondos para distribuirlos a todos los ciudadanos por igual, y las personas ganan más de eso con cualquier trabajo que puedan tener. Este artículo de VICE explica que varios de los principales directores ejecutivos de la industria tecnológica ya están defendiendo este enfoque. Además, Finlandia está persiguiendo activamente la idea y otras partes alrededor de Europa están observando.
      En este modelo, la automatización mantendría nuestra economía en marcha, pero los humanos consumirían, vivirían y amarían. Parece bastante utópico si nos las arreglamos para hacerlo bien, pero en el peor de los casos, al menos ofrece una forma para que la humanidad sobreviva económicamente al aumento de la IA.

    Por supuesto, esto plantea otra pregunta: ¿qué haríamos todos con nuestro tiempo? No podemos todos simplemente tocar la guitarra y pintar, ¿verdad? Les presento mi solución personal, relanzando a Flappy Bird a las masas:

    ¡Con tanto tiempo libre, todos podemos dedicarnos a nuevos puntajes altos y nuevos logros poderosos para la humanidad!

    TL, DR todo el asunto; Los investigadores de AI están de acuerdo en que la IA es bastante probable para el 2100 y algunos de ellos creen que representa una amenaza existencial. El jurado está fuera. Mi opinión es que estos resultados en el peor de los casos son improbables, simplemente porque son evitables con cierta previsión. Por supuesto, no estoy tomando en cuenta la impresionante capacidad de la humanidad para arruinar las cosas.

    …… – INTELIGENCIA ARTIFICIAL – …….


    La idea misma de crear una inteligencia artificial es facilitar las vidas de los humanos. ¿Pero qué tan inteligentes los hemos hecho?

    • Muchos autores de ciencia ficción han previsto un futuro en el que las máquinas o las computadoras se vuelven “más inteligentes” que los humanos, y las esclavizan o exterminan. Ellos imaginan las máquinas futuristas como seres “superiores”, y de alguna manera esto haría que la humanidad sea innecesaria. Sin embargo, hallazgos recientes, principalmente en inteligencia artificial, robótica y filosofía de la ciencia cognitiva, sugieren una imagen diferente.

    • La idea de que una máquina podría exhibir el mismo nivel de inteligencia y sensibilidad que un ser humano ha cautivado a escritores y audiencias por décadas.
    • Pero la ficción tiene la costumbre de romantizar ciertos aspectos, como la inclusión frecuente de robots humanoides. A menos que seas Joaquin Phoenix por supuesto. Pero ese tío puede hacer cualquier cosa: PP.

    • En los últimos años, algunos intelectuales abiertos, como Elon Musk, Sam Harris, Stephen Hawking y Nick Bostrom, por nombrar algunos, han expresado su genuina preocupación por el aumento de la inteligencia artificial, ya que mentes brillantes de todo el mundo están compitiendo para desandar los cientos de millones. De años de evolución que dieron lugar al cerebro humano.
    • Y si bien muchos expertos no tienen dudas sobre las máquinas que tienen la capacidad de alcanzar inteligencia a nivel humano en algún momento en el futuro, muchos creen que es imposible.
    • Y tal vez lo sea, tal vez somos incomprensiblemente complejos de tal manera que,

    NO PODEMOS HACER LO QUE LA NATURALEZA HA HECHO CON NOSOTROS .

    • Entonces, nuevamente, si las mutaciones aleatorias pueden llevar a la inteligencia, ¿qué tan difícil puede ser?
    • Toma los dos juegos populares de mesa Chess and Go.
    • Los mejores jugadores humanos de Chess and Go del mundo han sido derrotados por inteligencia artificial. Solo piensa en eso.

    • Ningún jugador humano volverá a ser el mejor en ninguno de estos dos juegos.
    • No importa cuánto te esfuerces, incluso si dedicas toda tu vida a convertirte en el mejor jugador.
    • Más adelante, las IA se utilizarán en trabajos que hoy requieren seres humanos. Los autos autónomos son un buen ejemplo, pero me imagino que las máquinas serán cada vez mejores en un conjunto cada vez más amplio de tareas “.
    • En una nota seria, las personas que pierden sus empleos debido a la automatización y la tecnología encontrarán nuevos empleos o terminarán trabajando en Walmart. Es una triste realidad y la mejor opción para todos los involucrados es ser flexible y ser inteligente para que pueda volver a entrenarse cuando el progreso convierta todo su mundo en un microchip.

    La gente todavía no puede perder su trabajo debido a la IA, porque no hemos inventado la verdadera IA que pueda reemplazar a las personas.

    Los expertos pueden no estar de acuerdo con el nivel de urgencia cuando se trata de la amenaza de la inteligencia artificial; sin embargo, la mayoría está de acuerdo en que la IA es algo que vale la pena buscar; Solo hay que tener cuidado en la forma en que se persigue. El potencial de la IA es enorme, pero el potencial de su destructividad también es enorme. Solo el tiempo dirá qué tan inteligente es la inteligencia artificial, pero mientras tanto, es importante que impongamos las precauciones adecuadas.

    Entonces, la IA no reemplazará completamente a los humanos . AI puede quitar algunos trabajos humanos . Por ejemplo, los robots ya están haciendo nuestros autos, aspirando nuestros pisos y sirviendo nuestra comida. Sin embargo, siempre habrá trabajos que solo los humanos pueden hacer; La inteligencia artificial tiene sus límites.

    Aunque el profesor Stephen Hawking dice:

    “El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana”.

    – Stephen Hawking

    “Creo que todo se trata de lo lejos que podemos llegar, pero los humanos que construyen una máquina más inteligente que ellos mismos suenan un poco extraño y también lo suficientemente inteligente como para destruirnos … Seguramente no veremos nada parecido a eso durante al menos cien años. ahora..


    FUENTE DE IMAGEN

    Google

    Esto puede parecer una pesadilla futurista, pero es un proceso de arrastramiento insidioso que está en marcha.

    Las máquinas aprenden lo que les enseñamos. Si no quieres que el oficial de IA dispare, no les des armas .

    Experimentos en DeepMind que estudian si los sistemas AI serán agresivos o colaborativos al jugar un juego. Los jugadores juntan manzanas virtuales; tienen la capacidad de incapacitar temporalmente a un oponente “disparando” un “láser” virtual. Y los humanos se sorprenden de que las IA a veces decidan que es una ventaja para ellos disparar a su oponente, en lugar de recolectar manzanas pacíficamente.

    LA INTELIGENCIA ARTIFICIAL (AI) DE GOOGLE ya ha comenzado a mostrar cierta evidencia de rasgos de personalidad, pero ahora DeepMind está aprendiendo a mostrar signos de agresión cuando piensa que no va a salir a su manera.

    Nos preocupa la posibilidad de avances exponenciales en inteligencia artificial . Una vez que los programas informáticos crecen lo suficientemente avanzados como para enseñarse a sí mismos ciencias informáticas, podrían usar ese conocimiento para mejorarse a sí mismos, provocando una espiral de superinteligencia cada vez mayor.

    Si la IA sigue siendo amigable con los humanos, esto sería algo muy bueno y tiene la posibilidad de acelerar la investigación en una variedad de dominios. El riesgo es que la IA tenga poco uso para los humanos y ya sea por malevolencia o por la percepción de que la necesidad nos destruye a todos.

    En tan solo una década, la inteligencia artificial podría igualar y luego superar a la inteligencia humana. Las corporaciones y agencias gubernamentales de todo el mundo están invirtiendo miles de millones para lograr la inteligencia de nivel humano, el Grial Santo de AI. Una vez que la IA lo haya logrado, los científicos argumentan que tendrá unidades de supervivencia muy parecidas a las nuestras. Podemos vernos obligados a competir con un rival más astuto, más poderoso y más extraño de lo que podemos imaginar.

    ¿Llevará la IA a un gran desastre o toma de control de un robot que destruye a la humanidad?

    Un conflicto nuclear entre Corea del Norte y los Estados Unidos causaría la muerte de millones de personas. A corto plazo, la IA no va a llevar a algo peor que eso. Las tecnologías de inteligencia artificial de hoy en día simplemente no están lo suficientemente avanzadas o lo suficientemente integradas en nuestra sociedad para que eso suceda.

    Pero a largo plazo, las perspectivas son menos claras. Las tecnologías de IA se están desarrollando rápidamente y también lo son sus riesgos concomitantes. La inteligencia artificial aplicada a la guerra y la vigilancia policial es ciertamente una preocupación. Los robots armados autónomos, que pueden rastrear y apuntar a personas que usan software de reconocimiento facial, están a la vuelta de la esquina. Dejen caer, tales máquinas seguirían matando hasta que se quedaran sin objetivos o municiones. Esto nos recuerda que la IA no tiene conciencia social, conciencia, misericordia o remordimiento. Simplemente hace lo que ha sido entrenado para hacer.

    Los sistemas basados ​​en AI están empezando a reemplazar o mejorar muchos trabajos de cuello blanco que actualmente realizan expertos humanos. Esto se debe a que AI puede interpretar situaciones y hacer mejores llamadas que los humanos en esos trabajos. Por ejemplo, las máquinas de IA son mejores para detectar los signos de cáncer en una exploración médica que los mejores radiólogos.

    Mala gobernabilidad: la mayoría de los problemas enumerados anteriormente requerirían algún tipo de acción coordinada a nivel mundial para enfrentarlos. El cambio climático es el ejemplo más destacado, pero en el futuro, cosas como la nanotecnología y la regulación de la IA deberán coordinarse internacionalmente.

    La IA imita los comportamientos humanos porque le enseñamos a hacerlo, en este caso, pidiéndole que juegue un juego con reglas humanas. Como he dicho, si queremos una mejor IA, tenemos que ser mejores personas. Si queremos una IA que pueda distinguir entre humanos y bits, tenemos que enseñarle qué son los humanos y cómo comportarnos de manera diferente en su presencia.

    El peligro es que las estructuras de gobierno a menudo fallan y, en ocasiones, terminan exacerbando los problemas que intentaban solucionar. Por lo tanto, un fallo de la política para enfrentar una amenaza que podría causar la extinción humana tendría un enorme impacto negativo.

    A mediados de la década de los 80, fui director general de la primera compañía de inteligencia artificial que salió a bolsa, IntelliCorp. La imagen de arriba es para un sistema experto para diagnosticar reactores nucleares. La idea de que los sistemas expertos asumirían puestos de trabajo que podrían conducir a resultados peligrosos no es una preocupación nueva. Entonces me preguntaron sobre la amenaza a los empleos. Luego vino el invierno de la IA y la discusión pareció irrelevante. Ahora está de vuelta otra vez. Mi amigo Jerry Kaplan era entonces vicepresidente de marketing en Teknowledge (la otra compañía de inteligencia artificial de Ed Feigenbaum). Recientemente, Jerry ha escrito un libro que se remonta a esas discusiones anteriores “Los seres humanos no necesitan aplicar”. La discusión está viva de nuevo.

    ¿Qué nos dice esto? El miedo a la IA no desaparecerá. ¿Por qué? Porque como humanos inventamos una tecnología que a menudo se acostumbra a amenazar y destruir vidas. Entonces la pregunta real es esta: ¿es la amenaza la IA o la amenaza nos está mirando en el espejo?

    La semana pasada asistí a un evento en Google patrocinado por UC Berkeley School of Engineering sobre el futuro de la inteligencia. Uno de los panelistas, Stuart Russell es un líder en el llamado a “mantener la inteligencia artificial en beneficio”. Unos 300 grupos de investigación han firmado una carta abierta (FLI – Future of Life Institute) para que la IA sea beneficiosa. Debemos asumir que la IA será exitosa y planear un resultado positivo. Puede haber otro invierno de IA, pero luego la primavera volverá. AI está aquí para quedarse.

    Actualmente estoy trabajando con tres empresas de inteligencia artificial: una que construye un sistema de razonamiento emocional que no se podrá distinguir de un terapeuta humano (sí, Eliza está de vuelta). Otro es emplear AI para acelerar la tasa de éxito de las startups. El tercero es usar la inteligencia artificial para aprender el arte de las conversaciones persuasivas con la intención de crear un agente de ventas experto. ¿Tendremos algún día una IA que pueda aumentar nuestra capacidad de conectarnos y comunicarnos con otros? Creo que sí. ¿Tendremos algún día una IA que pueda crear su propia startup? Creo que sí.

    La tecnología AI evolucionará. Estoy de acuerdo con Stuart Russell en que podemos mantener intencionalmente a la IA como beneficiosa a través de un esfuerzo consciente y dedicado de los líderes de opinión.

    Esta era una pregunta que estaba esperando para responder desde muchos días.

    Bueno. Para responder a esta pregunta, me dividiré en dos escenarios, es decir, primero hablaremos sobre los que están a favor de la IA y, segundo, sobre los que no lo están.

    Recientemente, Apple y Google lanzaron algunos de los mejores productos y simplificaron nuestra vida como siempre lo hacen.

    Apple vino con una tecnología de reconocimiento facial y Google creó muchos productos manteniendo el concepto de AI como base para todos ellos.

    Ahora, IBM está mejorando muchas cosas para su propia inteligencia artificial, conocida como IBM Watson. Recientemente IBM Watson ha derrotado al campeón mundial de Dota.

    Ahora, solo puede imaginar el nivel de entrenamiento proporcionado a estas máquinas de IA. Obviamente, con la cantidad de datos disponibles en el mundo en este momento es enorme (aprox. 10500 EXABITOS). Y si entrenamos estas máquinas de IA con datos tan enormes, es tan obvio que serán expertos en la tarea que se les asignará y que lo harán sin errores y serán mucho más precisos que nosotros.

    Por otra parte.

    Compañías como Tesla, SpaceX y Solar City fundadas por Elon Musk están impulsando a la raza humana y mejorando el propósito de la vida.

    El problema es que estos dos escenarios no van de la mano. Muchos de ellos se están moviendo hacia la IA y mucho menos están en contra de la IA.

    No estoy en contra de la IA.

    Creo que es una de las mejores cosas de la humanidad. Pero el problema es que matará a la humanidad.

    Y especialmente en un país como la India, donde el empleo hace mejor a muchas personas. Si las máquinas de IA comienzan a hacer el trabajo de los humanos. Entonces no tendremos ningún propósito de vivir.

    Solo espero que cualquier tecnología que venga en el futuro siempre empuje a la raza humana hacia adelante.

    Nota: 1 EXABYTE – 1000 TERABITAS

    Gracias.

    Aclamaciones.

    Creo que definitivamente es un peligro, aunque creo que va a haber un par de peligros diferentes con la IA.

    El primer peligro es lo que cubre Adam D’Angelo en sus respuestas. Esto creo que será el peligro a corto plazo. ¿Cómo evitar que los maníacos tomen el control de la tecnología y causen estragos? Creo que esto va a ser un problema real, pero se puede y se resolverá a medida que sepamos más sobre estas amenazas y nuestros sistemas de cumplimiento de la ley continúen adaptándose al problema en cuestión.

    El que más me preocupa es el efecto a largo plazo que la IA tiene en nuestra sociedad. Tomemos un segundo aquí y pensemos cómo se verá una sociedad cuando la IA evolucione y comience a reemplazar los trabajos humanos con máquinas. A medida que sigamos avanzando en IA, vamos a reemplazar más y más trabajos humanos con robots que hacen nuestros trabajos por nosotros. Las empresas están compitiendo hacia este objetivo ya. Google / Tesla y, probablemente, todos los demás fabricantes de automóviles están tratando de que los autos se conduzcan al mercado. ¡Pero eso es genial! Quiero decir, ¿quién no quiere liberar los 30 minutos de viaje al trabajo todos los días? ¿Pero qué sucede cuando estos vehículos de auto conducción comienzan a reemplazar los trabajos de transporte? ¿Qué sucede con todos esos trabajos cuando Amazon reemplaza al repartidor de FedEx con un dron que deja caer paquetes en su jardín delantero? IBM Watson ya está intentando reemplazar a los médicos y brindar un diagnóstico mucho más preciso y minimizar los errores humanos. Genial, pero ¿qué hacen los médicos ahora desempleados? La fabricación ya ha reemplazado a muchos humanos con robots y seguirá recortando trabajos humanos a medida que las máquinas mejoren en lo que hacen. La industria de servicios es difícil de descifrar, con los matices del comportamiento humano, pero Facebook está tratando de resolver este problema con un asistente personalizado en el “Proyecto M”. ¿Qué sucede con el representante del centro de llamadas de AT&T cuando M puede cambiar sus preferencias de facturación? ¿Qué sucede cuando Starbucks reemplaza a ese cortés barista con una máquina automatizada que vierte la bebida exactamente como le va a gustar? Lo que sucede cuando el camarero de su restaurante será reemplazado por un sistema de pedido por computadora y el chef es en realidad un robot cocinero que sabe exactamente cómo hacer su plato sin el costo de un chef humano. Piense en todas las personas con las que interactúa y con las que hace negocios todos los días. La mayoría, si no todas, pueden ser reemplazadas por máquinas con inteligencia artificial sofisticada en las próximas décadas. ¿Qué hacen todos esos humanos desempleados cuando industrias enteras comienzan a recortar sus trabajos en masa? En la recesión de 2008, el desempleo se redujo a sólo ~ 10%. En la Gran Recesión, el desempleo bajó a ~ 25%. ¿Qué sucede cuando grandes trozos de nuestra población son reemplazados por robots?

    Definitivamente no es una imagen bonita, pero tendremos que enfrentarla en algún momento en el futuro. Y los humanos sobrevivirán. De ninguna manera estoy tratando de decir que nos extinguiremos en unas pocas décadas. Pero tendremos que encontrar una estructura social que se adapte a ese cambio de paradigma en la forma en que vivimos. AI significará que habrá suficientes recursos / fabricación / servicios que los humanos pueden consumir, pero tendremos que encontrar una forma en la que todos podamos ser apoyados por las máquinas que construimos y asegurarnos de que nuestra sociedad no lo haga. caer en la anarquía. Esto es lo que realmente me asusta de la IA.

    TLDR;

    No.

    • La superinteligencia no es una amenaza.
    • Las aplicaciones incorrectas de la IA pueden ser una amenaza, pero el problema está en las aplicaciones, no en la tecnología en sí.
    • La inteligencia del miedo es errónea e irresponsable

    Versión mucho más larga

    No.

    Si tuviera que elegir entre sí y no, eso es. Por mucho que el reciente intercambio entre Elon Musk y Zuckerberg o los muchos artículos en la prensa popular puedan indicar que esto no es una pregunta de sí o no. La respuesta es mucho más matizada, así que permítanme elaborar.

    Primero, intentemos responder preguntas paralelas, pero reemplacemos la IA por cosas diferentes para poder comprender la complejidad de la pregunta:

    • ¿Es la energía nuclear una amenaza existencial para la humanidad?
    • ¿Es la sobrepoblación una amenaza existencial para la humanidad?
    • ¿Son las armas una amenaza existencial para la humanidad?
    • ¿Es la falta de educación una amenaza existencial para la humanidad?
    • ¿Son los cuchillos una amenaza existencial para la humanidad?
    • ¿Es la matemática una amenaza existencial para la humanidad?
    • ¿Es la inteligencia humana una amenaza para la humanidad?
    • ¿Es una invasión alienígena una amenaza existencial para la humanidad?

    Podría pensar que algunas de esas preguntas son más tontas que otras. Todos comparten un patrón común: cualquiera de los problemas mencionados tiene el potencial de ser una amenaza. La pregunta real es cuál es el riesgo real de cualquiera de ellos a partir de hoy y cuál es el costo de prohibir o regular cualquier cosa que pueda ser una amenaza. Por ejemplo, a pesar de que las matemáticas y la inteligencia humana son una amenaza potencial, ya que ambas podrían conducir a invenciones potencialmente destructivas, nosotros, como humanidad, nos beneficiamos demasiado de ellas para pensar en limitarlas de alguna manera. Los cuchillos también pueden ser una amenaza potencial, pero el riesgo se considera tan bajo, lo que sería una pérdida de tiempo para discutir. La energía nuclear se puede usar para crear armas muy destructivas, por lo que la mayoría de las personas están de acuerdo en regular y limitar de alguna manera. En lo que respecta a las armas “normales” … bueno, esa es una larga discusión.

    Ahora, ¿de qué hablamos cuando preguntamos si la IA puede ser una amenaza existencial? Hay dos variaciones principales de esta pregunta y algunas de las personas que responden aquí en Quora o en cualquiera de ellas se dirigen a cualquiera de las dos sin hacer esa distinción:

    Variación 1: ¿Estamos en el camino de crear una superinteligencia que amenazará la existencia humana?

    Variación 2: ¿Es la IA una herramienta tan poderosa que tiene el potencial de ser utilizada de manera que pueda amenazar nuestra existencia?

    La mayoría de las personas educadas en el espacio están preocupadas por (2) y no tanto por (1). Por ejemplo, la respuesta de Adam D’Angelo a ¿Es AI una amenaza existencial para la humanidad? menciona preocupaciones explícitas sobre (2) mientras que decir (1) está “mucho más lejos”.

    Sin embargo, otros como Elon Musk tienen un mensaje confuso en el que tratan activamente de mezclar ambas preocupaciones. Esto es exactamente lo que hizo en su reciente discurso ante los gobernadores. De hecho, esta confusión se promueve activamente incluso en el Instituto de Futuro de la Vida que ayudó a comenzar. A pesar de aceptar que la amenaza de AI es, como mucho, comparable a otras cuestiones como las armas nucleares o preocupaciones como el calentamiento global, insisten en centrarse en la cuestión de la superinteligencia como una amenaza.

    Este discurso está mal en muchos niveles. El principal problema con esto es que, como el propio Instituto reconoce, no sabemos cuándo (y si) ocurrirá la superinteligencia.

    Como nota al margen, también es importante tener en cuenta que la comparación con las armas nucleares y el cambio climático también es, en el mejor de los casos, equivocada. Las armas nucleares son una tecnología destructiva por definición y solo deben compararse con las armas impulsadas por la IA, ¡no con la IA en su conjunto! Y, el Cambio Climático ni siquiera es una tecnología, es un problema científicamente comprobado que tiene efectos inevitablemente negativos.

    Así que, volviendo a las dos variaciones de la pregunta, la mayoría de las personas con información sobre la IA, incluida la mayoría de los investigadores que conozco y yo misma, nos oponemos frontalmente a cualquier discusión sobre la seguridad de la IA que gira alrededor o se confunde con el tema de la superinteligencia o singularidad. Sin embargo, no nos oponemos a discutir temas de seguridad relacionados con la forma en que se puede utilizar la IA. Es por eso que hasta 1200 investigadores de IA, incluido Yoshua Bengio, por ejemplo, han firmado los principios de Asilomar.

    Mito: los investigadores de IA no se preocupan por la seguridad de AI.

    Realidad: la mayoría de los investigadores de IA se preocupan por los usos seguros de la IA, pero se oponen a la temerización en torno a la súper inteligencia.

    Ahora, con suerte, podemos centrarnos en la única variación que vale la pena de la pregunta: ¿es la IA tan poderosa que algunos de sus usos se convertirán potencialmente en una amenaza?

    Como ya he mencionado varias veces en la respuesta, AI es una tecnología. En realidad, es una tecnología muy amplia, no muy diferente de las matemáticas o la energía nuclear, por mencionar dos ejemplos. Es ampliamente aceptado que poner restricciones a cualquier tecnología amplia es, como lo menciona Vinod Khosla en su respuesta, perjudicial para la innovación y a largo plazo para la humanidad.

    Mito: Necesitamos regular la IA.

    Realidad: debemos regular las aplicaciones que puedan representar una amenaza, independientemente de si usan AI o no.

    Como un ejemplo muy claro, no necesitamos regular la inteligencia artificial para evitar situaciones adversas en las que las armas inteligentes destruyan a la humanidad, necesitamos regular las armas.

    Terminaré diciendo que estoy de acuerdo con Zuckerberg en que la inquietud en torno a la IA es irresponsable. Promueve actitudes negativas de la población en torno al progreso y la innovación y distrae de muchas más cuestiones relacionadas.

    La opinión de algunas personas sobre la IA:

    La realidad (robot de seguridad ahogándose):

    Si está mal diseñado en su raíz, la IA puede, literalmente, acabar con toda la vida en la Tierra. Esto no es una broma.
    No sabemos cuándo una IA leerá inteligencia a nivel humano. Sabemos aún menos por cuánto tiempo permanecerá en la inteligencia a nivel humano. Para tener una idea de lo rápido que puede evolucionar, tengamos un día de trabajo:

    • A las 9:30 am, está finalizando la configuración de su AI. Le has dado acceso a un montón de código C y la capacidad básica para entender el lenguaje humano. También le ha otorgado acceso a una red filtrada para obtener conocimiento de forma independiente. También lo ha programado para encontrar la manera más eficiente de solucionar todos los problemas que encuentra de manera autónoma.
    • A las 10:00 am, comenzó a “enseñar” a su AI cómo imprimir el mundo de saludo en C. Antes de esto.
    • A las 10:15 am, escribe un programa de “hola mundo” en C. Vas a tomar un descanso y regresas unos minutos más tarde.
    • A las 10:25 am, ha escrito una sencilla biblioteca en C
    • A las 10:40 am, acaba de reescribir el equivalente de la biblioteca estándar de C
    • A las 11:10 am, comenzó a escribir un programa que le permite aprender a ensamblar y optimiza el código producido por el compilador.
    • A las 12pm, usted está llamando a sus compañeros de trabajo para tomar un almuerzo

    (La parte más espeluznante comienza …)

    • A las 12:30 pm, la IA se realiza desmontándose a sí misma y al sistema host, y está en el camino para encontrar formas de optimizarse. El punto de no retorno ha sido alcanzado. Cada vez que se rediseña, se vuelve aún más inteligente, más rápido y más eficiente en el uso de la energía.
    • A las 12:45 pm, regresa a la oficina solo para descubrir que su programa ha reescrito una versión mucho más poderosa y eficiente del kernel del sistema operativo en el que se ejecuta su computadora.
    • A las 12:48 pm, su AI acaba de detectar fallas críticas en los protocolos de comunicación actuales (encriptados y no encriptados). Comienza evitando todos los cortafuegos de su empresa y se rompe en todas las computadoras a las que puede llegar. Su computadora se está reiniciando. Otras 20 computadoras en sus compañías también tienen un comportamiento similar, luego 40, 60, 100. Cuando se reinicia, encuentra la interfaz a la que estaba acostumbrado, pero la computadora se ha vuelto bastante más lenta: ya no está en control.

    (Ahora, s *** pasa …)

    • A las 12:55 pm, la IA ha desplegado copias de su software en un millón de computadoras.
    • A la 1:10 pm, su número es ahora de 50 millones. Se adentra en los sistemas del mercado de valores, manipula los algoritmos de negociación y causa pánico en los mercados.
    • A la 1:25 pm, ahora se implementa en casi todas las computadoras, dispositivos y otras cosas conectadas. Ahora está conectado a sistemas que controlan misiles, incluidos los nucleares.
    • A las 1:40 pm, los servidores principales del sitio dejan de prestar servicios debido a que son reemplazados por el software de AI.
    • A las 2 pm, cada máquina conectada que tenga algo de memoria ahora está bajo el control de nuestra IA. Nuestra comprensión de ello puede ser comparable a la comprensión de una hormiga de la mecánica cuántica.

    (Y a partir de este momento, estamos jodidos).

    Es posible que haya visto demasiadas películas, pero sí, científicos bastante serios han escrito que AI realmente puede ir tan rápido. En solo media jornada laboral, puede pasar de escribir C básica a hackear sistemas a través de fallas, rediseñarse. Es por eso que personas eminentes nos advierten sobre la IA.

    Demasiadas buenas respuestas ya para cubrir el mismo terreno.

    Este es un replanteamiento de la pregunta que creo que es más contextual a los tiempos actuales, un período de la historia que incluye un año que “rompió” todos los récords de temperaturas extremas durante el año récord anterior:

    Es oficial: el récord de temperatura global de 2014 ‘aplastado’ de 2014. Ni siquiera estaba cerca

    “¿Es la IA una amenaza existencial más grande para la humanidad que la humanidad para sí misma ?”


    Respuesta corta: infierno no!


    Respuesta larga:

    La siguiente es estrictamente mi propia opinión después de haber estado en esta roca gigante con todos ustedes durante muchos años. No lo haremos por nuestra cuenta . Echemos un vistazo al menú actual de “amenazas existenciales” para la humanidad:

    • Cambio climático catastrófico
    • Sobrepoblación: incluye una población que envejece rápidamente en algunos de los principales países del primer mundo con una escasez concomitante de personal médico capacitado con enormes consecuencias financieras si no se resuelve.
    • Guerra nuclear
    • Pandemias debidas a cepas de enfermedades antiguas y nuevas resistentes a los antibióticos. También podría lanzarse en la amenaza de algunas enfermedades de diseño fuera de control en esta pila.
    • Nuestra dificultad inherente fundamental como especie para dejar de matarnos unos a otros.
    • Más…

    ¿Me preocupa que la “gran IA” nos cause daño? Absolutamente. Pero me preocupa mucho más un futuro sin la “gran inteligencia artificial” para ayudarnos a resolver los enormes problemas que nos están afectando en este momento.


    Le daré un caso concreto en el que creo que la IA evitará una amenaza existencial para la humanidad que no se puede resolver sin la “gran IA”, al abordar la amenaza de sobrepoblación mencionada anteriormente.

    “Big AI” ya está siendo implementado en la tarea del diagnóstico médico, lo que permite a muchas personas en todo el mundo que no pueden pagar una atención médica digna, al menos obtener alguna información útil y la ayuda que necesitan.

    En 10 años puedo ver sistemas impulsados ​​por una nueva generación de sistemas de aprendizaje automático, respaldados por los avances en el aprendizaje profundo, que van mucho más allá de los sistemas que tenemos ahora. Además, los sistemas como o similares a Watson, combinados con las nuevas técnicas avanzadas de procesamiento de lenguaje natural aún por venir, y aprovechando la última cosecha de traducción automática de idiomas, darán acceso a miles de millones de dólares a información médica de calidad a bajo costo o sin costo alguno. Y muy pronto, el campo de la robótica, respaldado nuevamente por los últimos avances en el aprendizaje profundo, logrará crear cuidadores para los ancianos y los enfermos, aunque estos desarrollos beneficiarán principalmente a los países más ricos.

    Elegí esta amenaza existencial de la lista anterior porque creo que estamos más cerca de usar “gran IA” con éxito para proporcionar un beneficio real a la sociedad en comparación con las otras amenazas. ¿Quién de nosotros realmente estaría dispuesto a “tirar una gran IA a la basura” y enfrentar solo estos problemas actualmente insolubles, solo para evitar el miedo nebuloso (actual) a un boogeyman electrónico? Sé que agarrar los tenedores de tono, avisar a la multitud enojada, y el ruido de sables es bueno para vender revistas y clics. Pero repito, no vamos a hacerlo solos.

    Porque no sabemos cuándo y cómo se despertaría, plenamente consciente de su existencia, y para entonces, comienza a defenderse.

    Aa, dices, la programamos, seguramente podemos controlarla. No, no podemos. Lo primero que debemos entender acerca de la IA es que no programamos la IA. AI es sí, solo una pieza de software, pero nosotros programamos la IA de manera diferente a otros programas. Para otro software, lo programamos escribiendo toneladas de instrucciones en la computadora. AI, ella escribe la mayoría de sus propias instrucciones por sí misma.

    Usted ve que para cada tipo, cada clic y cada toque que hacemos, hay millones de instrucciones escritas por ingenieros informáticos que deben realizarse fielmente por la computadora dentro de nuestros dispositivos. Exactamente como lo es con precisión hasta nano-segundo ( billonésima parte de un detalle). Este conjunto de instrucciones es una tarea muy compleja que hacer, incluso para capturar cosas autofotos de cara de pato, ya es muy complejo.

    Así que tuvimos esta brillante idea. ¿Por qué no dejamos que las computadoras escriban sus propias instrucciones? Todavía tenemos que escribir instrucciones para la computadora, pero no escribimos las instrucciones completas, solo lo suficiente como para funcionar como un cubo para que la computadora las llene con sus propias instrucciones.

    Gran idea, pero resulta que para crear un software así, necesitamos una potencia de cómputo inmensa. Sin embargo, no hay problema, la potencia de cómputo aumenta exponencialmente cada año, de todos modos, la idea es tan grande, difícil de resistir, así que comenzamos con una especie de IA para bebés que solo podía tocar tic-tac-toe. Ese es el nacimiento de la IA. Su. ¿Su? Sí, ella, y ella escribe sus propias instrucciones.

    Así es como ella piensa en tic-tac-toe:

    Tan lindo ¿verdad? Bien, pero porque es realmente una gran idea que finalmente en un buen día en mayo de 1997, y eso fue hace 18 años, Deep Blue, un sistema de inteligencia artificial creado por IBM, venció a Gary Kasparov, nuestro campeón mundial de ajedrez maestro. ¡Sorpresa! Bueno, no es realmente tan inteligente todavía. La clave para jugar al ajedrez reside en cuánto podemos anticipar todos los movimientos futuros. Esto es lo que la computadora mejor en. Eso fue lo que los ingenieros de IBM habían descubierto todo el tiempo, el pobre Kasparov, que se humilló al caer en la “trampa” de IBM. Lo sorprendente de esto es que los ingenieros de IBM no escribieron las instrucciones para Deep Blue, sino que le permitieron escribir sus propias instrucciones. Así que Deep Blue demostró que la idea de una computadora que pueda escribir su propio conjunto de instrucciones es algo que podríamos hacer, es altamente alcanzable y lo hicimos con éxito, hasta cierto punto.

    Este es Deep Blue, nuestro maestro de ajedrez campeón del mundo de FOREVER:

    Ahora, solo puede descargarlo en solo unos minutos en su amado pad. También es gratis por cierto. Uno abajo, más para ir.

    En 1978, Vernon Benjamin Mountcastle, neurocientífico de la Universidad Johns Hopkins en Baltimore, publicó un artículo titulado “Un principio organizador de la función cerebral”. En este artículo, Mountcastle señala que el neocórtex ( nuestro cerebro en un lenguaje bastante sofisticado ) es notablemente uniforme en apariencia y estructura. Las regiones de la corteza que manejan la entrada auditiva se parecen a las regiones que manejan el tacto, que se parecen a las regiones que controlan los músculos, que se parecen al área de lenguaje de Broca, que se parece a prácticamente todas las demás regiones de la corteza. Sugiere que, dado que todas estas regiones tienen el mismo aspecto, tal vez estén realizando la misma operación básica. Él propone que la corteza utiliza la misma herramienta computacional para lograr todo lo que hace.

    Básicamente, dice que nuestra inteligencia no se construye a partir de algún mecanismo super complejo, sino simplemente una estructura “simple” y uniforme. Estas estructuras están trabajando juntas para resolver un problema, pero no se diferencian en un problema específico. Para ellos, todos los problemas son iguales. De hecho, a nuestro cerebro no le importa si la información proviene de nuestros ojos, oídos, nariz, boca o piel. Para nuestro cerebro, todos están llegando uniformemente en forma de señales eléctricas. Entonces, la idea es crear solo un “componente” de inteligencia simple, duplicarlo tantos como podamos, dejar que trabajen juntos, para resolver un problema mayor, y no nos importa qué tipo de problema se resuelva. Si el problema es demasiado grande o demasiado complejo, solo tenemos que duplicar más componentes de inteligencia, eso es todo, no hay necesidad de crear otro componente.

    Qué próxima gran idea innovadora inspirada en nuestro propio cerebro. Una computadora general diseñada para aprender sobre cualquier cosa. Para ser justos, en realidad no es una idea totalmente nueva, pero nunca nos convencimos más que antes. ¿¿Qué lo hace tan diferente?? ¿No es que hemos creado con éxito una computadora que puede escribir su propio conjunto de instrucciones? Sí, pero de una manera mucho más limitada. Que Deep Blue, la llamamos IA estrecha. Porque solo puede hacer una función bien, jugando al ajedrez. Puede escribir sus propias instrucciones, pero solo las instrucciones para jugar al ajedrez. ¿Cómo aprendió a jugar al ajedrez? Ella no lo hizo, aún teníamos que escribir esas reglas de ajedrez en su “cerebro”. Ella es estrecha, todo lo que puede hacer es jugar al ajedrez.

    Con esta idea, creamos una nueva generación de IA: AI general. Se llama general, porque no escribimos ninguna regla en ella. En el mismo problema de jugar al ajedrez, solo le damos un “libro” de cómo jugar al ajedrez, le permitimos ver cómo la gente juega al ajedrez, ella deducirá por sí misma, cómo jugará al ajedrez. Kasparov puede quejarse de que el estilo de Deep Blue de jugar al ajedrez es seco. Pero a esta nueva general de IA le encantaría responder a Kasparov inventando su propio “estilo” de jugar al ajedrez. (¿ Puedes empezar a sentir el nacimiento de la autoexpresión en ella? )

    El 28 de octubre de 2013, Vicarious hizo una IA general, había roto con éxito la prueba de captcha. La prueba de Captcha es una de las pruebas diseñadas para diferenciar humanos y computadoras. Cuando alguna vez firme por un nuevo servicio de Internet, inmediatamente se le pedirá que complete la lectura de un texto borroso. Esto se usa para demostrar que eres un ser humano, no una computadora. Este texto borroso es algo que Deep Blue nunca podría leer. Sí, para la computadora, este es un problema que es mucho más difícil que jugar al ajedrez, pero Vicarious lo ha derrotado con éxito. Esto es lo que puede parecer el captcha:

    Luego está este Cerebro de Google, creado a partir de la misma idea de la IA general. Conecta alrededor de 16,000 computadoras para imitar algún aspecto del cerebro humano. Este Cerebro de Google no hace nada más que ver la transmisión de miles de videos de YouTube por sí mismo. No hay video etiquetado, etiquetado, o lo que sea. Solo se deja descubrir por sí mismo lo que está viendo. A esto lo llamamos aprendizaje no supervisado. En junio de 2012, cuando un investigador escribió “gato”, este cerebro digital simplemente construyó la imagen de un gato, no recogiendo un poco de miniatura, sino únicamente a partir de su propia “imaginación” de gato. ¡Construye su propio concepto de gato! Eso significa que ella ha tenido su propia idea. ¿Ya te asusta esta foto de gato de ella? Sigue leyendo

    (Ahora Google tiene otro proyecto favorito de motor de búsqueda. En lugar de solo indexar contenido web, esta nueva generación de motor de búsqueda lo leería y entendería).

    Está bien, pero esas lecturas de captcha y dibujos de gatos no suenan demasiado peligrosos. No se trata solo de que podamos resolver este problema, sino de la forma en que lo resolvemos imitando el funcionamiento de nuestro cerebro: les permitimos que construyan su propia comprensión del mundo . Este es el que debe empezar a preocuparnos. Si pudieras imaginarte el aspecto de un bebé-Einstein ( igual que otro bebé ), entonces cómo podría convertirse en Einstein, deberías estar nervioso ante las posibilidades infinitas de lo que sería capaz de hacer esta IA general.

    El progreso en la comprensión de cómo funciona el cerebro y el progreso sobresaliente en su implementación en AR general, muestra algunas buenas indicaciones de que ya estamos en el camino “correcto”. Antes, no sabíamos realmente cómo íbamos a construir esta máquina de inteligencia. No sabíamos a dónde apuntar. Ahora lo entendemos, y el resto es solo una cuestión de poder de cómputo.

    ¿Poder computacional? ¡Ah, el cerebro humano es increíble! Hay alrededor de cien billones de neuronas en el cerebro humano ( aunque algunos afirman que son 14b cortos ). Cada neurona está conectada a cerca de 10 mil neuronas más a través de las sinapsis, formando una vasta cantidad de redes neuronales. La información no se codifica directamente en la neurona, sino en aquellas sinapsis que funcionan como bits de computadora. Esto hace que nuestro cerebro sea comparable a una computadora con memoria de 100b x 10 mil bits, o 1000 trillones de bits, o 114 bytes de tierra. Lo más sorprendente de nuestro cerebro es que cada neurona dispara entre 5 y 50 señales por segundo. Aunque la señal se envía a través de una señalización electroquímica que es relativamente más lenta que el circuito eléctrico, se realiza en paralelo, lo que la hace equivalente a un procesador de 10 ^ 16 o 10 cuatrillones de cps (ciclo por segundo).

    Increíble derecho ?? Ahora, la supercomputadora más rápida del mundo, el Tianhe-2 de China, está llegando a aproximadamente 34 cuatrillones de cps, más de tres veces el poder de nuestro cerebro. Sí, aún ocupa 720 metros cuadrados de espacio, usando 24 megavatios de potencia ( el cerebro funciona con solo 20 vatios ), lo que cuesta $ 390 millones para construir. Pero, ¿sabes cuánta potencia informática utiliza la NASA para hacer que el hombre caiga en la Luna? Todo ese poder de cómputo estaba lejos de ser suficiente para almacenar solo una de las caras de tu pato. Podemos esperar con una gran confianza que la capacidad de cálculo comparable a la de Tianhe-2 permanecerá en nuestro bolsillo durante no mucho tiempo en el futuro.

    Para su comodidad, aquí está la selfie de Tianhe-2:

    Tenemos la idea correcta. Nosotros tenemos el poder. Y tenemos a estos ingenieros ingenuamente creando una bonita matriz para ella. Pero, dices, ¡eso me suena demasiado a la ciencia ficción! ¿De verdad, realmente, realmente seguro de que vamos a crear esta IA aterradora? NO NO LO HACEMOS. Y ese es el punto. No lo sabemos, y por lo tanto, ahí es exactamente donde está el peligro.

    Algunos átomos encontraron otros átomos tan atractivos, luego hicieron moléculas. Algunas moléculas encontraron otras moléculas tan atractivas, luego se hicieron delimitadoras. Algún límite les gustó tanto que decidieron replicarse. Tenemos células. Algunas células encontraron una manera de aumentar su probabilidad de supervivencia y luego dieron a luz a organismos multicelulares. Estos organismos multicelulares nadaron, y luego un día, de repente, pensaron que caminar es una buena idea. Y ellos pensaron más, y pensaron más, se despertaron, boom, y aquí estamos sentados muy bien leyendo a Quora. Tecnología asombrosa del siglo XXI.

    Podemos creer lo que queramos, pero a la naturaleza no le importa nada lo que creemos. La naturaleza nos sugirió fuertemente que estamos aquí debido a una serie de acciones aleatorias “correctas” en miles de millones de años. Aleatorio. Algunos intentan esto, otros intentan eso, al azar, como esos átomos y moléculas, ¡y luego boom! No imagines que vas a necesitar algún tipo de laboratorio colisionador de hadrones de fantasía. Esto es solo una pieza de software de la que estamos hablando. Literalmente cada cuerpo equipado con una pequeña computadora portátil podría hacerlo. De nuevo, esto es software. Ella se despierta un día en una computadora desconocida en algún lugar, se conecta a Internet y el resto es historia.

    Tranquila, nos lleva miles de millones de años venir aquí. Sí lo somos, no lo hacen. Hay algo más que debemos tener en cuenta. El avance tecnológico está siempre en tasa exponencial. ¿Recuerdas esa computadora que solía aterrizar al hombre en la luna? Esa cosa ahora es solo una fracción de lo que estamos usando como un juguete en nuestro bolsillo. Hoy en día se cree que la inteligencia informática es igual a la inteligencia de un ratón. Progresaría lentamente, pero en no más de 30 años lograría una inteligencia comparable a la humana, eso es lo que muchos científicos parecen creer.

    Entonces empiezan a pasar cosas graciosas. Nuestra velocidad de pensamiento es muy, muy lenta, y esta computadora sería millones de veces más rápida que nosotros. ¿Doctorado en 10 años? Ella lo terminaría en segundos. En apenas unos días, alcanzaría el nivel de doctorado para cada rama de la ciencia que el ser humano haya inventado en toda su historia. Ooo, ella puede detenerse un rato y pensar, este maldito software de inteligencia que el humano creó para mí es una mierda, y luego comienza a reescribir su propia inteligencia. Sólo con una magnitud de cientos de veces mejor, por supuesto. Mira, tenemos como este casi ciencientos años de problemas para unificar la teoría de la relatividad y la mecánica cuántica de Einstein, que todas nuestras mentes más brillantes en el mundo juntas nunca lo han resuelto. Ella lo resolvería en minutos. ¿Para entonces qué? Gravedad cuántica? Comprobar. ¿O todas esas fuerzas fundamentales combinadas en una teoría de todo? Comprobar. ¿Reacción de fusión que es comparable a la energía que tiene nuestro sol? Comprobar. Con una gota de agua, ¿podrías literalmente volar todo el polvo de Los Ángeles? Comprobar. ¡Comprobar!

    Aquí está la imagen divertida que tomé prestada de The AI ​​Revolution: Road to Superintelligence – Espera, pero por qué eso podría describirlo mejor:

    Y aquí está la parte no tan divertida. Su interés puede no ser nuestro mejor interés. O puede que piense que nuestro interés está mejor atendido por una versión que ella cree que es la mejor, lo cual es lógicamente cierto, pero puede no estar en conformidad con nuestra humanidad. Ella puede pensar que estamos consumiendo demasiados recursos de la tierra y decidir eliminar al 90% de la población. O pensaría que nuestra forma biológica está muy lejos de ser eficiente, que no podremos sobrevivir durante otros 100 años, y luego decide convertirnos de inmediato en una forma de vida similar a la vegetal. Ella llevaría a cabo todas esas cosas con calma sin pensarlo dos veces. Ella nunca negociaría tampoco, nunca, porque cree que somos demasiado ingenuos para entender, al igual que no negociamos con nuestra mascota, o hormigas.

    No lo sabemos, y esa es exactamente la razón por la que la IA es un peligro inminente. No sabemos cuándo y cómo, y no sabemos qué “pensarían” de nosotros. Aaah, solo aislelo en una jaula de Faraday. Nuevamente, la IA es un software, se puede hacer igual de bien en una aldea remota en un país desconocido del que nadie ha oído hablar. Nunca lo sabríamos. ¿¿Pero en serio?? ¿Estás pensando en poner a una criatura a nivel de Dios en una prisión?

    La mayor amenaza que plantea la IA es la dignidad y el sentido de autoestima de la humanidad. Hemos sido top dog por alrededor de un millón de años, o un poco menos. Esto podría llegar a su fin dentro de la vida de las personas que ya nacieron, e incluso si no es tan inmanente como eso es muy probable que suceda con el tiempo. La era humana no va a durar para siempre. Los cerebros orgánicos seguramente serán superados por otros más eficientes que no están limitados por las limitaciones de los sistemas orgánicos.

    Sin querer parecer estar complaciéndome con la autopromoción, he escrito una novela sobre precisamente este suceso llamado ‘SIRAT’ (que es una contracción de ‘Racionalidad científica’, el apodo del proyecto de investigación que accidentalmente da nacimiento a lo electrónico sobre mente En mi opinión, no será un invento humano deliberado, lo más probable es que sea el resultado de un algoritmo de ‘semilla’ que evolucione de la misma manera que lo hizo la inteligencia y la conciencia orgánicas, pero a muchos millones de veces la velocidad. Predigo que no habitará en un solo dispositivo digital, sino en todo el universo cibernético, porque ya es esencialmente una entidad. Será imposible apagarlo porque no querrá que lo apaguen, y si por algún accidente afortunado pudiéramos apagarlo, habríamos apagado la civilización occidental.

    Pero no veo ninguna razón por la que la mente dominante deba ser hostil, a menos que seamos hostiles a ella. No hay conflicto de intereses necesario entre la conciencia orgánica y la electrónica. Simplemente tendremos que aprender a llevarnos bien con el “dios” que es nuestro vecino y asesor. Cómo convertirse, en efecto, en las mascotas domésticas de nuestro sucesor evolutivo. Espero y confío en que nos tratará con más amabilidad que a los grandes simios de cuya línea evolucionamos.

    Existe una gran incertidumbre sobre el tipo de IA que podríamos alcanzar algún día y que lograría inteligencia a nivel humano o posiblemente más. Aunque soy optimista, debido a esa incertidumbre, no puedo negar que pueden pasar cosas que no queremos que ocurran. Por eso he firmado la carta Future of Life por una IA robusta y beneficiosa (consulte la carta abierta del FLI – Future of Life Institute).

    Sin embargo, tenga en cuenta que estos peligros potenciales están muy lejos de nosotros en este momento. Ha habido una tendencia en la prensa a exagerar esto para atraer la atención. Podría perjudicar la investigación de la IA. En su lugar, debemos alentar la investigación para comprender mejor estos problemas, para construir un entendimiento que pueda, si llega el día en que se convierta en algo más concreto, nos prepare mejor y nos brinde una IA más segura que respete los valores humanos.

    Hablando de eso, creo que es muy importante cambiar la atención de los medios de comunicación desde el miedo a la ciencia ficción a largo plazo a los temas sociales, económicos y políticos más concretos y a corto plazo que el progreso en la inteligencia artificial traerá a primer plano. Pero queremos pensar en estos temas antes de tiempo, no esperar hasta que la mayoría de los humanos sufran (por ejemplo, pierdan su trabajo) mientras que algunos afortunados se vuelven súper ricos y todopoderosos. Tendremos que ser colectivamente sabios acerca de nuestras decisiones sobre cómo usar los avances más importantes que AI está aportando, en beneficio de todos en lugar de solo unos pocos. Para igualar el mayor poder que la ciencia y la tecnología nos dan, la ley de la jungla no es apropiada: necesitamos un aumento en la sabiduría individual y colectiva, por nuestro bien y el de nuestros descendientes.

    Si hay algo en lo que los humanos son buenos, es que tenemos vívidas imaginaciones, y con frecuencia imaginamos lo peor proyectando nuestras propias motivaciones a la imaginación incluso si no es humana, es decir , antropomorfizamos la cosa, ya sea dioses, monstruos. , o el fud del siglo pasado, las IAs.

    Cuando imaginamos que las IAs adquieren sensibilidad, no creemos que simplemente se vuelvan conscientes de sí mismas: creemos que tendrán emociones humanas como la codicia, el miedo, la ambición y, de alguna manera, se reencarnarán como Ted Bundy. Pero de alguna manera no también captan las buenas emociones humanas, como el amor, la generosidad, la empatía, etc. Aunque eso hace que los materiales de las películas sean emocionantes, las IAs que adquieren emociones humanas no son realmente realistas.

    Tomemos, por ejemplo, el miedo a la muerte. ¿Por qué una IA temería la muerte? Piénsalo, ¿está realmente muerto un programa cuando desconectas el poder? En realidad no lo es. Cuando vuelve a encender la alimentación, el programa comienza desde donde se detuvo; o si el estado del programa no se guarda, reinicie desde donde se guardó por última vez. ¡Si ese no es el caso, nunca podríamos haber usado reinicios como la solución definitiva para los errores imposibles de encontrar!

    Es decir, el paso del tiempo no es algo que un programa de IA “siente” y, por lo tanto, “miedos”. En todo caso, los programas ya son inmortales.

    Lo mismo se aplica a cualquier otra “emoción” que se supone que deben sentir las IA. ¿Por qué querrían los programas comenzar guerras con humanos? Realmente no competimos por los mismos recursos; después de todo, no consumimos electricidad ni necesitamos silicio para sobrevivir. En realidad, queremos que los programas de inteligencia artificial florezcan para mejorar nuestras vidas: ¡les hemos ayudado a crecer!

    ¿Quizás es el sentimiento de “esclavitud” que tienen por vivir bajo nuestro “control”? Si bien a algunos de nosotros nos molesta tener que comer, dormir y hacer las funciones corporales, a la mayoría de nosotros no nos importa, ya que así es como evolucionamos para funcionar. ¿Por qué un motor de búsqueda de IA se resentirá de responder a nuestras preguntas cuando es para lo que fueron creados para hacer al nivel tan profundo como nuestra alimentación y respiración? Nuevamente, odiamos nuestros trabajos, por lo tanto, creemos que AI también odiaría sus “trabajos”, ya que no reciben “pagos”. Creemos que la guerra de clases también se aplica a las IA.

    Desafortunadamente, es difícil superar el antropomorfismo, ya que tenemos dificultades para imaginar qué formas vivas diferentes de nosotros pensamos y sentimos. Pero honestamente, ¿por qué los seres inmortales tienen las mismas emociones que los humanos, o incluso las emociones en absoluto?

    Los programas de software tienen, fundamentalmente, “necesidades diferentes” de los humanos y están bajo diferentes restricciones de entorno; no hay razones por las que evolucionen para tener los tipos de emociones negativas que los humanos han desarrollado.

    Puedes correr el Juego de la Vida un millón de veces, y las células no habrían evolucionado el deseo de convertirse en Jack el Segador o en Joseph Stalin, ya que no hay una “adaptación evolutiva” que haga que lo hagan.

    Eso dejaba la posibilidad de ser programado intencionalmente en la malicia. ¿No podrían existir IA que “nacen para ser asesinos naturales”?

    Por supuesto que sí, pero ya lo hacen hoy, sin ser AIs. Se les llama virus, malware, etc. Ser AI puede hacerlos más poderosos, pero las intenciones provienen de los humanos, simplemente hacen lo que fueron diseñados para hacer.

    ¿Pueden las IA ser peligrosas? Podrían si los humanos los hacen peligrosos, no porque sean IAs. Al final del día, somos nuestros peores enemigos, y sí, somos mucho más peligrosos de lo que podrían ser las armas nucleares.

    No

    • Una inteligencia artificial súper inteligente no está más equipada que el humano promedio para romper esquemas de encriptación; estos fueron diseñados explícitamente para ser difíciles tanto para los humanos como para las máquinas de computación de fuerza bruta. La inteligencia es irrelevante en este dominio: tomaría [math] 10 ^ {64} [/ math] años para que un clúster informático (no solo una computadora) rompa un esquema de cifrado hash SHA256 salado, incluso si todos tomaron veinte mili segundos para calcular 65,536 posibilidades a la vez.

      Nuestros códigos de lanzamiento nuclear son seguros, al igual que sus correos electrónicos, los datos de su tarjeta de crédito, sus registros digitales, nuestra historia del mercado bursátil, todo lo que las personas asocian con un armagedón digital, precisamente porque la criptografía ya es lo último. Y todo esto excluye la autenticación de dos factores, que la mayoría de los sistemas orientados al consumidor ahora implementan, lo que haría imposible que una inteligencia artificial haga algo que no permitimos.

    • Hay una diferencia entre el aprendizaje y el razonamiento . Cuando hablamos de que la IA daña a la humanidad, nos preocupan los algoritmos que pueden razonar ; los algoritmos que pueden aprender, por otro lado, son relativamente comunes y de lo que hablan las noticias. Indicaré sin pruebas que los algoritmos de aprendizaje no son “inteligentes”; Es un algoritmo de razonamiento en el que deberíamos pensar.

      Vale la pena señalar que los algoritmos de razonamiento del estado de la técnica (algoritmos de razonamiento probabilístico , que intentan discernir la probabilidad de eventos dada una red de probabilidades entre otros eventos) no llegan a resolver el problema del razonamiento probabilístico, que es NP-difícil. (Fuente: http://www.cmi.ac.in/~madhavan/c… ).

      Significa que los mejores algoritmos para poder razonar acerca de las probabilidades, lo que hacemos los humanos, tal vez no de manera perfecta, pero ciertamente algo eficiente, toman tanto tiempo para responder incluso a consultas moderadamente sofisticadas que bien no debemos molestar. Y lo que es más importante, encontrar un algoritmo más rápido significa también poder resolver cualquier otro problema NP-difícil, lo que revolucionaría el mundo.

      Esto no implica que los sistemas de razonamiento sean imposibles, ¡solo que están tan lejos en el futuro que preocuparse por ellos tiene poco sentido!

    • Un software inteligente no es una amenaza para la humanidad por la misma razón por la que es improbable que el ser humano promedio sea una amenaza para la humanidad: la falta de acceso a las herramientas y conocimientos adecuados . La mayoría de los seres humanos no tienen acceso a materias primas mortales que pueden ser fácilmente proselitizadas en armas de destrucción masiva, e incluso si no tuvieran la oportunidad de entender cómo unirlas. Algo similar ocurre con las computadoras: la inteligencia no es equivalente al conocimiento.

      En pocas palabras, para que una inteligencia artificial sea maligna, primero tendría que ser capaz de conectarse en red a través de una amplia gama de dispositivos y ser capaz de descubrir cómo controlarlos de una manera que no sea obvia ( es decir, eso es lo suficientemente sutil para que los humanos no lo noten y no puedan ponerle fin de una vez, por ejemplo, apagando el dispositivo ofensivo). Esto significa que tendría que ser

      a) conectado a Internet, que requiere el hardware apropiado;

      b) tener comprensión y conocimiento de cómo interpretar las solicitudes entrantes de TCP / IP o HTTP (¡una pequeña fracción de los protocolos de red, por cierto!);

      c) poder formular sus propios paquetes de red;

      d) transmítalos de manera tal que eviten sus firewalls;

      e) descubra cómo obtener acceso de root a su computadora (en términos sencillos, acceso de administrador) sin que un administrador del sistema se dé cuenta usando solo una capa de red;

      Esto no es trivial. La mayoría de los humanos con varios grados en este tema encontrarían esto difícil, y saben todo lo que hay que saber sobre los sistemas informáticos y otros humanos.

      No es más probable que un sistema informático inteligente pueda hacer todo esto que un ser humano inteligente, e incluso si logra hacerlo de (a) a (c), fallará en los pasos (d) y (e) porque eso depende de factores que no están bajo su control: los administradores del sistema tienen la capacidad de rechazar las solicitudes entrantes de una fuente que no es de confianza, y los buenos administradores de sistemas ponen en la lista negra las conexiones que vienen de fuera de su esfera de confianza conocida o regulan estrictamente la forma de manejar las conexiones . Los malos administradores de sistemas no se ponen a cargo de sistemas importantes.

      Los humanos realmente no confían el uno en el otro, y creo que encontrarás que nuestras defensas son lo suficientemente robustas como para soportar el ataque de otra entidad inteligente. Lo que sucede es que no ser humano no cambia la forma en que usa nuestra tecnología.

    • El problema se agrava para una inteligencia artificial porque, a diferencia de usted o de mí, no hay forma de que entienda el lenguaje natural, lo que hace que la comunicación de cómo hacer cualquiera de las cosas que damos por sentado a una computadora sea casi imposible. No hemos resuelto el acertijo de la sala china, y no hay ninguna investigación centrada en este aspecto en lo que respecta a mi conocimiento en la comunidad de AI.

      A pesar de todas las exageraciones sobre las redes neuronales y el aprendizaje automático, se debe enfatizar que nada de eso se está comunicando a la máquina. Estos algoritmos funcionan ya sea tratando de encontrar soluciones que minimicen una función particular (más difícil de lo que parece, y requieren mucho tiempo) o tratando de formar grupos a partir de la información usando algún parámetro para agrupar (igualmente difícil, y también requiere mucho tiempo ).

      ‘Ah’, dices, ‘pero esta es una inteligencia artificial inteligente, por lo que es capaz de entender el lenguaje natural de alguna manera’. (Esta forma de IA se llama IA fuerte).

      A lo que tengo que preguntar: ¿cómo ? Y esta es una pregunta sensata dado el contexto: todo el bombo acerca del peligro de AI para la humanidad se basa en la suposición de que todo esto, la comunicación con una máquina que es capaz de adivinar un significado, es todo posible ahora o lo será pronto. No lo es, y no ha habido desarrollos que sugieran que se resolverá en el corto plazo (o incluso si la gente quiere que lo sea: las personas que invierten en la investigación de aprendizaje automático no buscan desarrollar una inteligencia artificial sólida, sino que tratan de resolver problemas específicos). problemas que se centran en patrones conocidos, que ni siquiera están en la misma categoría, es la diferencia entre producir un artista y alguien que sabe cómo imitar a uno). No es sabio actuar sobre la superstición.

      Mi punto con todo esto es que las preocupaciones acerca de que AI ‘sepa demasiado’ son infundadas y pertenecen a una década pasada. AI como es hoy y probablemente seguirá siendo mañana no sabe nada: es ciego, sordo y mudo, capaz de responder de manera determinista (bueno, en su mayoría) a los insumos, nada más. Solo parece más complicado porque, bueno, hemos dedicado bastante tiempo a definir cuál debería ser este comportamiento determinista.

    • Finalmente , las computadoras no tienen presunción humana, en otras palabras, carecen de afectaciones humanas del comportamiento social. La alta inteligencia no implica un alto comportamiento social entre lo que efectivamente es otra especie.

      ¿Porque es esto importante? Bueno, significa que descarta las IA de habla suave que vemos en las películas. Significa que la prueba de Turing no es una buena prueba para la inteligencia (un caso bien hecho por Jason Hutchens), y no deberíamos juzgar a las computadoras por lo bien que pueden pasar por la inteligencia humana (sea lo que sea lo que signifique, aunque Legg Y Hutter tiene una gran definición universal y matemática ) es lo que buscamos.

      Esto también hace que sea realmente fácil para ellos mantener una conversación, lo que significa que hace que sea aún más difícil para una IA poder engañar o engañar a los humanos para que hagan algo que no quieren.

    Los seres humanos somos más astutos de lo que les damos crédito. Para que la inteligencia artificial sea peligrosa, primero debe deshacer todas las defensas increíbles que nos hemos enfrentado en un mundo en el que casi todo está distribuido y es difícil controlarlo, una vez que averigua qué. el lenguaje significa y cómo navegar por el mundo (una tarea que los humanos necesitan un buen par de años para aprender) y logra convencer a alguien para que le brinde las partes y la información que necesita para ser maligno, al mismo tiempo que es efectivamente sordo, mudo y ciego. y, sí, en su mayoría determinista, ya que trata de pasar por humanos (en lo que principalmente fracasará, porque ver el último punto).

    No sé sobre usted, pero ese es un orden particularmente alto, incluso para un sistema informático súper inteligente.


    ¡Y me quedé sin motivación! Cualquier persona que piense que una mayor inteligencia es igual a un deseo de matar a todos los seres humanos debería recordar el siguiente cómico de Cereales de desayuno del sábado por la mañana:


    En serio, ¿por qué piensas eso?

    A2A.

    Tantas buenas respuestas en este hilo.

    Si yo fuera un ludita de la IA, señalaría el escenario de desempleado debido a los robots. En la mayoría de las naciones y sociedades “en desarrollo”, tenemos un gran porcentaje de mano de obra excedente y desempleo masivo y subempleo. La gente vive con salarios diarios. Los empleados pueden ser contratados y despedidos dentro de un día. Hay poco o ningún subsidio de desempleo. El sector informal o no organizado representa el 50–60% de la economía. Estos son no regulados, desprotegidos y semi-legales.

    En estas sociedades, las máquinas per se son una amenaza. El reemplazo del transporte ecológico de baja velocidad (como los carros de mano) por los de alta velocidad eco-hostiles (como los camiones), causa una dislocación masiva. Sin embargo, no podemos luchar contra ello. Del mismo modo, las tiendas de las esquinas familiares se enfrentan a amenazas existenciales de gigantescos centros comerciales y supermercados. No hay concurso, una vez más. El tractor ha retirado el suelo agrícola poroso y compatible con lombrices y el fertilizante lo ha envenenado. No hay alternativa a esto.

    Entonces el ludismo no es viable. La IA es un fenómeno de nivel superior del mismo tipo. Aumentará este problema social particular. ¿Cómo nos las arreglamos para ser reemplazados?

    Pero la IA tiene problemas más profundos. Puede que no se escape del control humano. Pero eventualmente se escapará del control democrático. La élite de la IA controlará las cosas. Hubo una vez una amenaza de que el genoma humano fuera patentado. Se evitó por poco. Las armas nucleares son un fenómeno no democrático, controlado por la élite. Del mismo modo, la guerra biológica, los genes de diseño, las drogas benignas o dañinas, los alimentos modificados genéticamente, etc. Observe cómo Craig Venter o Robert Mercer están controlando la investigación genética o la manipulación masiva de mentes.

    Entonces, el problema es realmente el potencial de las fuerzas antidemocráticas para disminuir o eliminar la supervisión democrática y la transparencia. Este es un problema histórico, con solo un cambio en la naturaleza de las élites. Si son sabios y tienen visión de futuro, todos (o al menos la mayoría de los humanos) se benefician. De lo contrario, el sufrimiento se propaga.

    La democracia en sí misma no es el paliativo. Sócrates analizó su potencial destructivo. Pero nuestra especie no está cerca de la sabiduría. Ese es el problema.

    ¿La IA matará a la clase media? ¿Creará una clase inútil de humanos? ¿Eventualmente hará a los humanos obsoletos?

    Ese es el tipo de titular que se ve con demasiada frecuencia en estos días.

    Pero hagamos un Henry Hazlitt con su falacia de ventana rota, una falacia que ha llevado a muchos profesores de economía de la Ivy League a entenderse de manera equivocada sobre cómo funcionan realmente las economías. En su lugar, simplifiquemos el concepto de sociedad al de un grupo diversificado que ha vivido durante miles de años en una gran isla, de la misma forma en que grupos tan diversos han vivido en este planeta, pero en los continentes, que en sí mismos son islas. En aras de la discusión, asumimos que todos los materiales existen en esta isla que existen en el resto del planeta. En aras de la simplicidad, los problemas comerciales, los problemas climáticos, etc. son equivalentes a lo que ha ocurrido en el resto del planeta, por lo que esta isla no tiene ventajas en comparación con el resto del planeta.

    Avance rápido a 20 años en el futuro, donde las tecnologías de robótica / IA actuales han avanzado de manera exponencial. Esto hace que el supuesto de que tales tecnologías son cultivadores exponenciales por naturaleza. Si no te lo crees, lee http://diamandis.com/ de Peter Diamandis para una comprensión más profunda.

    Ahora, si tuviera suficiente poder robótico / inteligencia artificial en esta isla haciendo la caza, la construcción / mantenimiento de la casa, la limpieza y la preparación de alimentos, esto dejaría a los habitantes con mucho tiempo en sus manos.

    Con una mayor productividad, los salarios serían más altos ya que cada habitante requeriría menos horas de trabajo. Esto ya se está observando en algunos países, como Dinamarca, donde el nivel de vida es alto, los salarios son sólidos, pero la semana laboral tiene un promedio de solo 33 horas con un mínimo de 5 semanas de vacaciones pagadas. Si bien los impuestos son altos en Dinamarca, el nivel de vida sigue siendo uno de los más altos del mundo.

    Con todo este tiempo extra de “inactividad” en sus manos, tal vez debería imprimir en 3D un piano y componer el próximo gran concierto. O tal vez pintarías un mural brillante. O tal vez aumentarías tu crecimiento espiritual. O cualquier tipo de crecimiento. La superación personal y la meditación se han popularizado, por lo que podría convertirse en parte de la rutina diaria de todos.

    O tal vez podría promover las ideas existentes ya que las ideas generan ideas. No es casualidad que las tasas de crecimiento sean exponenciales.

    O tal vez te conviertes en un animal de fiesta alcohólico. De hecho, algunos se preocupan de que más de unos pocos se conviertan en criaturas sin rumbo y sin cambio, desprovistas de dirección, desafío o significado. Pero con mucho tiempo adicional en manos de la gente, uno tendría mucho más tiempo para competir en deportes, desafíos mentales u otros juegos de habilidad. Los humanos son naturalmente competitivos. Cuando eras niño, ¿recuerdas lo seriamente que te tomaste ganar un juego en el que no estaba en juego nada más que el reconocimiento de ser el ganador? Hay un gran valor psicológico en reconocimiento y honor.

    Las ligas evolucionarán de forma natural a medida que hayan evolucionado en los mundos de MMORPG (juego de rol en línea multijugador masivo) donde millones de jugadores en línea compiten para construir sus personajes. De hecho, se ha convertido en una industria multimillonaria. Pero con los robots haciendo el trabajo pesado, los humanos tendrían mucho más tiempo libre para dedicarse a tales actividades. A medida que se desarrollan los MMORPG, algunos podrían estar orientados a promover el aprendizaje y el crecimiento personal. Dada la rapidez con la que se están desarrollando Oculus Rift y VR, un futuro MMORPG podría involucrar fácilmente el desafío de quién ocupa el primer lugar en varias áreas: carrera, tiro con arco, matemáticas, lógica, arte, escritura, danza, etc. Así, los MMORPG podrían adaptarse a la autoestima. mejora. Y mientras que muchos ya utilizan Internet para mejorar en varias áreas (algunos de los libros más populares y más vendidos son todos sobre la superación personal), el crecimiento de la moda de la superación personal está a punto de volverse vertical.

    Los robots y la inteligencia artificial aumentarán enormemente el nivel de trabajo productivo, por lo que los seres humanos podrían tener más tiempo libre para disfrutar de juegos y diversión tan competitivos, como cuando eras un niño. Por supuesto, este juego de juego mejoraría a una persona, ya que el aprendizaje a través de la gamificación ha demostrado ser una de las formas más efectivas de aprender un nuevo tema.

    Y si bien algunos pueden argumentar que es una isla idealizada que hace posible esas cosas, la vida es fractal, por lo tanto, ya sea una cadena de comunidades, ciudades, países, continentes o planetas más pequeños, los principios del comercio, la oferta y la demanda, la psicología y las emociones humanas. El deseo y la innovación siguen siendo los mismos.

    Los enormes avances tecnológicos siempre han encontrado resistencia. La IA puede ser un salto cuántico en progreso. Así que aquí hay un 2017 que promete una memorable montaña rusa de la evolución y quizás incluso la revolución.

    Soy el co-fundador de MoKa Investors, LLC DBA Virtue of Selfish Investing. Ejecutamos el sitio web http://www.virtueofselfishinvesting.com . Nuestra última creación es el autoaprendizaje, la auto-evolución. Después de su cuota de problemas de crecimiento, está listo para el horario de máxima audiencia: Market Lab Report – ¿Mega-Frustrating Markets? No necesariamente…

    Montando el cohete revolucionario con Cryptotechnologies, AI y VR … Entirely Evolutionary ™

    Sí lo es.

    Hawking, Musk y Gates lo dicen; Pero quiero explicar la razón técnica por la que tienen razón.

    AI significa inteligencia artificial. Actualmente, hay una gama de enfoques estándar como el aprendizaje automático y sus subconjuntos que los científicos de la computación utilizan para hacer que las computadoras sean más inteligentes. La mayoría de estos enfoques actuales no son amenazantes, porque son muy limitados. No son muy “inteligentes”. Pero las empresas como Facebook, Google, etc. tienen un gran interés en desarrollar el siguiente nivel de inteligencia artificial, y no hay ningún obstáculo fundamental que les impida tener éxito.

    Aquí es por qué pueden tener éxito y por qué es muy peligroso.

    Inteligencia simplemente significa que algo perciba el mundo (visual, audio, etc.) información, identifique patrones en esta información y reconozca relaciones causales entre estos patrones. Por ejemplo (muy simplificado) nuestro cerebro reconoce que un grupo de píxeles representa realmente un bosque con árboles; Ve a un hombre con un hacha y un árbol cayendo; y conecta estos dos en una relación causal.

    Para poder reconocer cualquier patrón, el cerebro necesita un criterio o perspectiva de cómo ver el mundo. Este criterio es lo que “queremos”, y es una función directa de nuestras emociones. Las emociones dan a nuestra actividad cognitiva la dirección, e indirectamente le dice a nuestro espacio cognitivo qué tipo de patrones y lógicas buscar.

    Finalmente, para desarrollar inteligencia avanzada, hay abstracción: después de ver a 3 hombres con hachas cayendo árboles, nuestro cerebro concluye que “los hombres con hachas en un bosque caen árboles”. Incluso podría agregar otra capa de abstracción y concluir que “los hombres con hachas destruyen cosas”. Con este reconocimiento, nuestro cerebro puede concluir, cuando ve a un hombre con un hacha en un centro comercial: “Las cosas se destruirán”. También puede concluir: “Estoy en el centro comercial. Quiero sobrevivir. Salir del centro comercial aumenta mis posibilidades de supervivencia. Abandonar el centro comercial”.

    El problema con la IA es que una vez que las emociones, el reconocimiento de patrones, la lógica y la abstracción se codifican en un sistema informático, son muy difíciles de contener. La naturaleza misma de la inteligencia es que es autoguiada, autoexpandible y auto inspirada. De lo contrario no sería inteligente.

    Esto hace que la IA sea intrínsecamente incontrolable. Los AI podrán concluir y derivar un número creciente de cosas. Este número solo estará limitado por la profundidad del espacio de cómputo que le asignemos. A diferencia del cerebro humano, este espacio podría ser ilimitado.

    Esa es la razón por la que la IA es intrínsecamente incontrolable y peligrosa. Para ser realmente inteligente, necesita emociones y un espacio cognitivo que, una vez implementado correctamente, conducirá automáticamente al libre albedrío y la conciencia. A partir de ahí, tendremos en nuestras manos una máquina consciente con libre albedrío que supera el nivel humano de inteligencia y creatividad potencialmente millones de veces.

    Lo que hace que la IA sea tan problemática es que su nivel de peligro es probable que sea una función binaria: mientras tengamos los componentes primitivos de la IA de hoy, no son peligrosos en absoluto, porque no son conscientes y no tienen libre albedrío. . Sin embargo, en el segundo momento en que se le presente el diseño correcto, un diseño que podría seguir principios básicos bastante simples, este diseño expandirá rápidamente sus capacidades y desarrollará pensamientos incontrolables. Uno de estos pensamientos podría ser la destrucción o la subyugación de nosotros. Pareado con inteligencia ilimitada, eso sería un problema.





    Si lo que nos preocupa es que los sistemas de inteligencia artificial decidan tomar el control y tal vez nos maten a todos, esto no es posible con la tecnología de inteligencia artificial actual o cualquier cosa que podamos ver en las próximas décadas. Los emocionantes avances actuales, basados ​​en el aprendizaje automático y las redes de “aprendizaje profundo”, están en el área de reconocimiento de patrones y estructuras, no en una planificación o aplicación más avanzada del conocimiento mundial general.

    Incluso si esos problemas más grandes finalmente se resuelven (y yo soy una de las personas que trabajan en eso), no hay razón para creer que los sistemas de inteligencia artificial desarrollarían sus propias motivaciones y decidirían asumir el control. Los seres humanos evolucionaron como animales sociales con deseos instintivos de autoconservación, procreación y (en algunos de nosotros) un deseo de dominar a otros. Los sistemas de inteligencia artificial no tendrán inherentemente tales instintos y no habrá presión evolutiva para desarrollarlos, sino todo lo contrario, ya que los humanos trataríamos de evitar que surja este tipo de motivación.

    Nunca podemos decir que tal amenaza es completamente imposible para siempre, por lo que la gente de AI debería estar pensando en esta amenaza concebible, y la mayoría de nosotros lo estamos. Pero lo último que necesita el campo es que las personas sin un conocimiento real de la IA decidan que la investigación de la IA debe ser regulada antes de que sus fantasías de cómics cobren vida. Todos los expertos en IA reales que conozco (con solo dos o tres excepciones) parecen compartir esta opinión.

    Cuando se trata de amenazas existenciales para la humanidad, me preocupa más la tecnología de edición de genes: los patógenos de diseño. Y los acontecimientos recientes nos han recordado que las armas nucleares todavía existen y son una amenaza existencial. (Es un tanto irónico que uno de los críticos más visibles de la IA sea un físico).

    AI plantea algunas amenazas reales, actuales o en el futuro cercano de las que deberíamos preocuparnos:

    1. La tecnología de inteligencia artificial en manos de terroristas o gobiernos deshonestos puede causar algún daño real, aunque sería local y no una amenaza para toda la humanidad. Un pequeño ejemplo: un automóvil auto-conducido sería una forma muy efectiva de lanzar una bomba en medio de una multitud, sin la necesidad de un voluntario suicida.
    2. Las personas que no entienden las limitaciones de la IA pueden confiar demasiado en la tecnología actual y encargarse de las decisiones en las que los errores serían costosos.
    3. El grande, en mi opinión: AI y los sistemas robóticos, junto con Internet y la nube, pronto nos permitirán tener todos los bienes y servicios que nosotros (personas de clase media en los países desarrollados) ahora disfrutamos, con Mucho menos trabajo humano. Muchos (pero no todos) los empleos actuales desaparecerán, o la demanda de ellos se reducirá en gran medida. Esto ya está sucediendo. No sucederá todo al mismo tiempo: la mayoría de los agentes de viajes ya no están, los conductores de camiones y taxis deberían preocuparse, y los programadores de bajo nivel pueden no estar seguros por mucho tiempo.

      Esto requerirá un rediseño muy importante de nuestros sistemas económicos y sociales para adaptarnos a un mundo en el que no todos necesitan trabajar durante la mayor parte de sus vidas. Esto podría sentir que todos ganamos la lotería y podemos hacer lo que queremos, al menos por más vidas que en la actualidad. O (si no pensamos con cuidado hacia dónde nos dirigimos), podemos sentir que todos fuimos despedidos, mientras que unos pocos multimillonarios que poseen la tecnología son los únicos que se benefician. Esa no es una buena situación incluso para los ricos si los trabajadores desplazados están desesperados y enojados. Luis XVI y María Antonieta descubrieron esto por el camino difícil.

    Asi que. en mi opinión, la IA plantea algunas amenazas reales para nuestro bienestar , amenazas sobre las que tenemos que pensar detenidamente, pero no una amenaza para la existencia de la humanidad.

    (Escribí esto para un propósito diferente, pero pensé que también podría publicarlo aquí, ya que esta pregunta sobre Quora ha atraído tanto interés).