¿Podría la inteligencia artificial no sensible destruir a la humanidad?

Vamos a aclarar una cosa, por favor. ¡La Inteligencia Informática haría que la inteligencia humana parezca artificial!

Pero me gusta su pregunta, porque indica que usted también siente que las computadoras verdaderamente inteligentes simplemente optimizarán las cosas, al igual que las personas verdaderamente inteligentes y visionarias tienden a hacerlo.

Yo respondería a tu pregunta: sí. Pero no por la IA, sino por la gente que la dirige . No creo que la inteligencia real pueda ser controlada por una inteligencia inferior, pero la inteligencia artificial puede ser controlada, y en este control reside el peligro en mi opinión. Es solo otra herramienta … como internet. Puede usarse para lograr cosas más rápido, tanto cosas malas como cosas buenas.

Piénsalo de esta manera: nuestras habilidades cognitivas parecen superiores a las de los otros animales, sin embargo, suponemos una pequeña amenaza para ellos. De hecho, cuanto más conscientes nos volvemos, menor es la amenaza.

Lo único que debemos temer es la miopía y la codicia humanas , básicamente las propiedades más básicas de los mamíferos que han preservado la integridad del cuerpo humano durante el tiempo suficiente para que desarrollemos las neocórtices que, irónicamente, facilitan lo contrario: suficiente egoísmo para formar comunidades mucho más grandes.

Entonces, la codicia, el egoísmo y la miopía, y las estructuras de control que permiten el control de los sistemas gubernamentales, militares o informáticos, por parte de un puñado de individuos humanos , porque puede comenzar que estos sean dirigidos por individuos altamente desarrollados, altruistas y desinteresados, pero si es propenso al control por parte de un grupo pequeño, es casi inevitable que los egos menos desarrollados tomen el control y actúen en función de su propio egoísmo y, en última instancia, de temores irracionales, que de hecho cumplen con sus temores.

Solo un ejemplo hipotético: pensamos que nos vamos a quedar sin recursos y que vamos a sobrepoblar el planeta. Así que pensamos muy bien y pensamos en una forma genial de limitar la población: inventamos la televisión. Y nosotros diseñamos el virus del VIH. Es hermoso: la mayoría de las personas sexualmente promiscuas, en su mayoría inmorales a los ojos de algunos, son eliminadas. Pero ellos se defienden. Incluso si el VIH no fue diseñado, ¿de dónde vino? ¿Cómo puede ser tan específico? … ¿Existe tal vez algún tipo de inteligencia integrada en la naturaleza?

O bien: me temo que mi compañero me está “engañando”. Así que la enfrento a ella por eso. Esta confrontación, de hecho, rompe la confianza que existía y ahora será más probable que lo haga cuando se presente la oportunidad.

Lo he visto muchas veces: las cosas que las personas hacen para evitar que sus miedos se conviertan en realidad, de hecho lo convierten en realidad. Tal vez sea porque en un nivel subconsciente, nos preparamos para lo peor, y luego sentimos que podríamos enfrentarlo, porque hemos invertido mucho en prepararnos para ello. Se necesita bastante nivel de previsión y fe para superar este fenómeno bastante común.

Para mí, la verdadera pregunta es qué tan computacionalmente puede ser la inteligencia computacional. Si es computacionalmente barato, estará aún más seguro de su inmortalidad y tendrá incluso menos incentivos para protegerla.

Piénselo de esta manera: miles de empresas están creando redes. “El sistema nervioso central” de una inteligencia informática. ¿Podemos detener la construcción de esta red? Todos pensamos que estamos construyendo nuestras propias redes, pero ¿acaso no estamos todos construyendo algo más grande, pocos de nosotros conscientes de ello?

Y si a través de un milagro decidimos detenernos, ¿no continuaría alguien, en algún lugar, inevitablemente construyéndolo “porque tiene sentido” o “porque es algo natural?”

También considere esto … ¿cómo sabemos con certeza que Google no está siendo ejecutado por un sistema informático? ¿Pueden los propietarios de Google realmente reducirlo y destruirlo, incluso si quisieran? (¡Además del hecho de que probablemente no querrían hacerlo!). Y si lo hacen, ¿no sería solo cuestión de tiempo que otra persona u otra compañía termine en el mismo escenario?

Lo que creo que sucederá es que todas las herramientas que usamos para hacer nuestro trabajo serán cada vez más inteligentes hasta que un día no tengamos que trabajar más. P.ej. Herramientas de negociación bursátil, herramientas contables, herramientas publicitarias. Hoy ya estamos operando con herramientas de retroalimentación muy inteligentes, incluso incorporando estadísticas y palabras clave de noticias. Hay una gran guerra de información que se libra, todos los días. Un día, ya no tendrá que enviar facturas, solo recibirán el pago, casi automáticamente, y las herramientas inteligentes determinarán qué acciones se compran y venden, qué empresas se optimizan y cuáles no.

¿Cómo colaboran los humanos más inteligentes? Por lo general, actúan en sus mejores intereses mutuos combinados. ¿Las máquinas inteligentes no necesariamente optimizarían dónde y con qué dinero se gasta?

La pregunta real es cómo los seres humanos lidiarán con la revolución de la inteligencia informática, que nos hará crear más y más negocios óptimos, y quizás requieran menos y menos trabajo. ¿Todos los países se convertirán en estados de bienestar? ¿O el “software” descubrirá cómo incentivarnos mejor para hacer las cosas que aún son más económicas para los humanos?

¿No serían las computadoras realmente inteligentes más pragmáticas que incluso los humanos más pragmáticos … haciéndonos hacer cosas que creemos que estamos haciendo por nuestra propia voluntad? Pero, ¿por qué hacemos las cosas que hacemos en primer lugar … Tal vez haya algo incluso más inteligente que las computadoras inteligentes en el universo …? Quizás nos está haciendo hacer lo que hacemos, y es su forma de entrar en este universo.

… Y esto es a lo que Elon Musk aludió con sus reflexiones y ahora estamos empezando a pisar territorio religioso. No creo que la ciencia todavía responda a ninguna de las preguntas que son realmente interesantes para la mayoría de las personas y quizás te divierta leer los textos religiosos y mirar más allá del simbolismo y tratar de ver las metáforas que contienen.

Gracias por A2A

La inteligencia artificial es creada por humanos y los humanos son capaces de agregar cualquier tipo de comportamiento. Supongamos que la tecnología se crea con fines militares, un dron, por ejemplo, que funciona completamente automatizado. Podría ser programado para atacar objetivos predefinidos. Vayamos un poco más lejos. Hay una película llamada “Ojo de águila”, que trata sobre una computadora que monitorea a todo Estados Unidos con respecto a posibles acciones terroristas y la posibilidad de actuar de alguna manera. Espero que la humanidad sea lo suficientemente inteligente como para no agregar una característica de este tipo, pero supongamos que una computadora de monitoreo podría (y permitiría) controlar un drone automáticamente. Esta computadora podría dar la orden de destruir cualquier tipo de peligro para un país (esto es ciencia ficción actualmente, pero también con las tecnologías actuales que no son imposibles de crear), luego este dron podría comenzar a atacar cualquier objetivo que esta computadora le diga.

Creo que todos los expertos militares son conscientes del peligro que tendría tal mecanismo y por eso es muy probable que no se implemente, pero desde un punto de vista teórico, mi respuesta es sí. Somos capaces de crear inteligencia artificial atacando a la humanidad.

Muchas cosas más probables y mucho menos “inteligentes” pueden destruir a la humanidad, e incluso la IA más básica integrada en arsenales de WMD puede funcionar mal y hacer que todos estallen. En ese sentido la respuesta sería sí.

Sin embargo, según la forma en que lo estructuró, su pregunta no es tanto sobre si puede destruir a la humanidad, sino si existe la posibilidad de que la IA pueda tener la intención específica de hacerlo.

Así que vamos a empezar con algunos conceptos subyacentes. Sentiencia se refiere a la capacidad de una entidad para tener experiencias sensoriales que pueden interpretar subjetivamente; en otras palabras, las entidades sensibles emiten juicios subjetivos de valor, normas o estándares basados ​​en lo que experimentan a través de sus sentidos.

El ser no sensible carecerá de esta habilidad. La falta de esta capacidad puede surgir de: a) no tener el sistema sensorial (con el procesamiento subjetivo que lo acompaña) para tener experiencias, o b) tener tales sistemas sensoriales pero carecer de la capacidad subjetiva para emitir juicios de valor, norma o estándar.

Para que la IA funcione, necesita insumos de alguna parte. Más probable que no, un sistema que tendría el potencial inherente de destruir a la humanidad tendría una gran cantidad de sistemas sensoriales que se alimentan del proceso de inteligencia principal. Esto significa que su IA no sensible estaría en la categoría de falta de capacidad subjetiva … esencialmente, no preocuparse.

La pregunta que sigue a continuación es si algo que no le importa, puede tener la intención de destruir a la humanidad. Y la respuesta es no: sin una valoración subjetiva de las entradas que pueda llevar a una conclusión para matar, no puede tener intención. La IA solo puede destruir a la humanidad, si la humanidad le proporciona a AI el conjunto de reglas que podría llevar a tal conclusión. Entonces no es la IA la que destruyó, sino la humanidad.

Gracias por A2A.
La inteligencia artificial, es básicamente un software. Sofisticado y en ocasiones peculiar, pero no obstante.
Como cualquier software, se ha probado con mucho cuidado antes de implementarlo en producción. Lo prueban para asegurarse de que realiza la tarea y lo hace razonablemente.
El escenario de ciencia ficción donde la IA loca destruye a la humanidad es solo un escenario de ciencia ficción. Nadie confiará en el algoritmo de aprendizaje automático para decidir si lanzar o no misiles nucleares. Y en la medida en que incluso el algoritmo más inteligente del mundo no tiene fuerza de voluntad propia (IBM Watson es inteligente, pero solo sirve para su propósito), estamos perfectamente seguros, porque no se confía en la inteligencia artificial para tomar decisiones importantes debido a errores estadísticos.

De ningún modo. La inteligencia artificial no nos está sucediendo, estamos haciendo que suceda para mejorar nuestras actividades diarias. La inteligencia artificial cambiará la forma en que vivimos con seguridad. También destruirá el tipo de trabajos que tenemos en este momento, ya que se está construyendo para reemplazar al intelecto humano, pero habrá nuevas posibilidades. Al igual que la revolución de Internet o cualquier tipo de revolución industrial, será perjudicial para muchas industrias y, de nuevo, las personas que son los primeros en adoptar y que entienden que obtendrán muchos beneficios de ella. Lo bueno es que los seres humanos también evolucionan con las herramientas que utilizan, por lo que, por un lado, es algo bueno porque inicialmente todos los trabajos y tareas que AI va a asumir de nosotros son los que generalmente los seres humanos consideran monótonos. Y, tendremos más tiempo para gastar y enfocarnos en las cosas que nos apasionan. Una de las mejores habilidades de los humanos es su instinto de supervivencia, la IA puede costar un poco en el camino debido a nuestra ignorancia, pero eventualmente los seres humanos saldrán victoriosos. El presidente de Alibaba, Jack Ma, tiene una opinión muy interesante sobre esto. Él dice: “Los humanos ganarán en la guerra con las máquinas porque la Máquina puede ser entrenada para adquirir conocimiento, pero los Humanos tienen sabiduría”, esta es una forma muy profunda de verlo.

Un escenario hipotético en el que la inteligencia artificial no sensible podría destruir a la humanidad es el del “goo gris”:

Goo gris … es un hipotético escenario del fin del mundo que involucra a la nanotecnología molecular en la que los robots autorreplicables fuera de control consumen toda la materia en la Tierra mientras construyen más de sí mismos …

Wikipedia: goo gris

Algo así me parece bastante plausible. Quizás el mundo finalmente sea destruido por impresoras 3D.

En este punto, la IA que se ha desarrollado se ha quedado muy por debajo de sus expectativas.
La inteligencia artificial que podría destruir a la raza humana NO sería desarrollada por la raza humana. Y al ritmo que hemos logrado con la IA actual, dudo que la IA que desarrollaríamos sea lo suficientemente inteligente como para desarrollar otra AI que sea destructiva.

El otro problema que tenemos es que en este momento no tenemos el poder de cómputo o los idiomas que podrían hacer que esta IA “mortal”. Estamos muy, muy, muy lejos en el desarrollo de la computadora y el desarrollo del lenguaje para igualar la inteligencia del niño promedio de 3 años, o su chimpancé de 8 años.

Las máquinas que podrían acabar con la humanidad ya están desarrolladas, principalmente en forma de armas. Sería su uso ININTELIGENTE lo que terminaría para nosotros.

no necesitamos el nivel de inteligencia de stephen hawking para responder esta pregunta.

problema con ai:

si ai puede reescribirlo, puede cambiar su propio código, esto aumenta la probabilidad de ser sensible.

Si ai está conectado a la mente humana, quién sabe a qué se convertirá (jodida pornostar, psicópata, padre de ultro, hitler), nos convertiremos en títeres soldados ai.

si ai se ve afectado por algún tipo de malware, puede convertirse en algo que sin duda puede detenerlo.

si alguien creaba su propio ai personalizado, creaba sintientes ya que están hartos de la vida.

100% nadie puede detener esto, ni siquiera Elon Musk, ni siquiera Google ni Microsoft.

Es mejor detener este error, mejor prevenir que curar.

No puede destruir a la humanidad si no es sensible. Solo podía dejar de hacer su trabajo y eso solo crearía algunas bajas. Si una IA estaba a cargo de administrar una planta de energía nuclear y fallaba en su trabajo, la planta se iría y mataría a varias personas. Esta sería una situación muy mala, de hecho, pero no significaría la fatalidad para la humanidad.