¿A alguien más le preocupa que el hombre más inteligente del planeta piense que la IA podría matarnos a todos un día?

Probablemente preocupa a alguna persona, siempre lo hace.

Pero permítame hacerle una pregunta: ¿confiaría en su médico cómo reparar su automóvil?

Por mi parte, no es probable. Y lo mismo sucede con los teóricos de la física que hablan de la IA, o de cualquier otro campo. Admito que viene de un campo que sabe lo que es desarrollar métodos que nos permitan eliminarnos a todos (después de todo, ¿no ayudó Einstein a los Estados Unidos a desarrollar la bomba atómica?), Pero también debería recordar que junto con su mal El potencial de cualquier campo es el auto equilibrio y más bueno que malo sale de él.

La proyección de Hawkins y la sensación de que al entrometernos en la IA solo estamos creando una nueva criatura también me demuestra que no entiendo lo que realmente está sucediendo en este campo de investigación o incluso su progreso actual. La investigación de inteligencia artificial en su mayor parte no solo está muy lejos de tal cosa que puede producir algo que tendría el requisito de decidir eliminarnos a todos, sino que también es muy poco o nada lo que está trabajando en serio hacia esa entidad.

Supongamos que hacemos un programa inteligente, este programa se haría para cumplir un propósito. ¿Por qué necesitaría un motivador que pueda llevar a una conclusión tan extrema? ¿Auto preservación? No veo cómo sería necesario ni realmente relevante. Este es solo un programa que puede duplicarse fácilmente y la muerte no es realmente una amenaza para él, por decir. Además, como herramientas de diseño de investigación de AI, ¿por qué aprovecharíamos esta oportunidad para poner esa amenaza a nosotros? …

Luego viene la forma en que funciona la investigación, especialmente cuando se trata de sistemas complejos que aún desarrollamos para mantener nuestra comprensión (después de todo lo que queremos entender, no crear por el simple hecho de ser pequeños dioses). La posibilidad de pasar de las cosas que tenemos a algo que presentaría una amenaza global sin muchos pasos crecientes es casi nula (Roma no se construyó en un solo día …). Por lo tanto, es más probable que progresemos de algo que representa una pequeña amenaza, a un poco más, … hasta que las personas se den cuenta de que tales problemas deben solucionarse rápidamente. Nuevamente se puede hacer un buen paralelo con la forma en que manejamos las armas nucleares. Todavía puede limpiar nuestro planeta, pero no sucedió gracias a la conciencia global y las reglas internacionales (explícitas o de otro tipo).

De nuevo, estas son muchas cosas que, a pesar de ser increíblemente inteligentes, Hawkins no se desarrolló realmente en su argumento. Esto demuestra que no importa lo inteligente que seas si no te molestas en que te informen correctamente, tu IQ no vale nada.

Edit: Una última cosa: hay un arma que es tan poderosa que no solo puede detener cualquier IA existente, sino que también podría poner en marcha una guerra nuclear. Es incluso más peligroso que esté en todas partes y probablemente en el dispositivo que está usando ahora. Se denomina interruptor de alimentación siempre que una actividad de AI pueda detenerse / suspenderse a través de una herramienta de este tipo, lo que sigue siendo el caso, dudo que sea realmente una gran amenaza.

Gracias por A2A esta es una pregunta interesante.

El temor de que la IA nos mate, se basa en dos cosas que el Prof. Hawking dijo: una verdadera inteligencia artificial se mejorará a sí misma a un ritmo cada vez mayor (al rediseñarse a sí misma) y que la lenta evolución biológica no podrá competir.

Personalmente, me parece un poco arrogante pensar que después de miles de millones de años de evolución, la vida biológica puede ser inferior a un hipotético hecho por el hombre hecho por la IA producida por aproximadamente un siglo de esfuerzo científico. Pero tratemos de ver por qué la evolución biológica se basa en la descendencia, por lo tanto, lenta, y si puede haber una mejor manera que pueda tomar la IA, poniendo así fin a toda la vida biológica.

Como prof. Hawking dijo que la IA se irá mejorando mediante un rediseño constante. Este es un problema importante. Si hay una sola instancia de la IA que trata de mejorarse, ¿cómo sabrá el efecto de ese cambio? ¿Cómo sabrá si el cambio es una mejora y no un error que hará que deje de funcionar, es decir, a morir?

No puede Aunque no puedo probarlo formalmente, verificar el efecto de un cambio es equivalente al problema de la Detención, es decir, crear un algoritmo para predecir si un programa detendrá una entrada o no. Alan Turing demostró que esto no se puede hacer. Y esto sigue siendo cierto, no importa cuán inteligente pueda ser una máquina.

Por lo tanto, nuestra AI hipotética tiene dos opciones:

1. Modificarse y arriesgarse a morir, lo que inevitablemente se producirá con un número suficiente de modificaciones.
2. Pruebe los cambios en copias de sí mismo, es decir, descendencia. De esta forma puede permitirse cometer errores sin matarse.

Si AI elige la primera opción, morirá, por lo tanto no hay problemas. Si elige la segunda opción, no estará mucho mejor que la evolución biológica para verificar que los cambios en la descendencia llevan tiempo, por lo que será lento.

Se puede argumentar que los cambios realizados por AI son menos aleatorios y, por lo tanto, más rápidos. Esto también se puede discutir, pero lo dejaré para otra ocasión. Mi intención era mostrar que la IA no tiene más remedio que hacer lo mismo que la naturaleza, es decir, la evolución biológica y que no puede tener una ventaja significativa sobre la biología, al contrario de lo que dice el prof. Dijo Hawking.

¿No sería irónico si la primera IA consciente lograra avances médicos fundamentales que permitieran que el cuerpo de Stephen se curara de su enfermedad y regenerara su cuerpo de la pérdida de la función muscular y del sistema motor?

Estoy de acuerdo en que el potencial para el bien y el mal es mucho mayor en este tipo de tecnología que la mayoría de los demás. Pero ya tenemos varias formas de extinguirnos si no ejercemos la diligencia debida. Guerra nuclear, plagas biológicas, destrucción ambiental, agotamiento de recursos naturales críticos, etc. La diferencia es que un nivel de singularidad AI puede ayudarnos a expandirnos más allá de este sistema solar y evitar que un solo cataclismo elimine la existencia de la raza humana.

¡Sí lo hace!

Puedo ver que la mayoría de las personas no están preocupadas, y esto se debe principalmente a algo llamado sesgo de selección. De forma intuitiva, atribuimos la probabilidad a algunos eventos en función de la frecuencia con la que los hemos experimentado. Nunca hemos experimentado una IA peligrosa, por lo que la conclusión intuitiva es que la probabilidad de tal evento es cero. Y luego llegamos a una explicación de por qué es así.

Este es un razonamiento defectuoso, y algunas personas lo saben. Steven Hawking es solo uno de ellos. Otros son Elon Musk, Nick Bostrom y Hugo de Garis, por ejemplo (todos valen la pena escucharlos).

Por supuesto, cuando hablamos de IA, solo podemos especular. No sabemos lo difícil que es crearlo. No sabemos cuán inteligente puede llegar a ser. No sabemos qué tan altos son sus cambios para volverse peligrosos, benevolentes o indiferentes para nosotros.

Pero como no lo sabemos, entonces esto es apostar.
Imagina que alguien te invita a un juego con reglas desconocidas. Él dice que tienes algunas posibilidades de ganar diez millones de dólares y algunas posibilidades de ser asesinado instantáneamente. Él no te dirá cuáles son las posibilidades. ¿Estarías de acuerdo en jugar?

No

Veamos lo que Stephen Hawking en realidad cita:

“El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana … Se despegaría por sí solo y se rediseñaría a un ritmo cada vez mayor … Los humanos, limitados por la lenta evolución biológica, no podían competir , y sería superado “.

Para empezar, no menciona nada sobre matar. Esa es tu paranoia hablando, no Stephen Hawking.

Ahora veamos este escenario como si fuera correcto.
Las IA despegan y superan a la humanidad. Ahora eso podría ser un problema si estuviéramos compitiendo por los mismos recursos. Pero las IA son virtuales. Viven dentro de las computadoras. No comen vegetales ni van a la orilla del mar. Entonces, si no estamos compitiendo, ¿cuál es el punto en una “disposición” de la humanidad de la IA? Ahora puedo ver que una IA se está apoderando de nuestro equipo militar para evitar que lo usemos en nosotros mismos (después de todo, ¿no haría eso una persona inteligente?) Y puedo ver que limitan a la población humana a un nivel que permita a otros animales sobrevivir (después de todo, ¿no haría eso una persona inteligente?). ¿Pero matarnos? ¿Por qué?

Afortunadamente su escenario está completamente equivocado.

  • El hecho de que una IA sea más inteligente que nosotros no significa automáticamente que podrá rediseñarse a sí mismo. La inteligencia no es igual a la omnisciencia. Hasta que no entienda su propia inteligencia (una habilidad que aún no hemos aprendido), no puede replicarla ni expandirla.
  • Si entendiera la inteligencia, tal vez la compartiría con nosotros y podríamos aumentar nuestra inteligencia en consecuencia.
  • Los seres humanos no se limitan a frenar la evolución biológica. No hay seres vivos. Por el momento, el único mecanismo que hemos explicado completamente es la selección natural modificada por la mutación genética, que es un método lento. Sin embargo, está claro que ese no es el único método utilizado por los organismos en evolución. Los cambios rápidos en el medio ambiente están claros en el registro geológico y los organismos respondieron para sobrevivir mediante algún mecanismo que es más rápido que la mutación genética. Podemos encontrar que la competencia por la inteligencia nos incita a aumentar nuestra propia
  • Además, incluso si fuera cierto que nuestra evolución fuera lenta, nuestra inteligencia actual es mucho más grande de lo que la mayoría de nosotros hemos usado y aún no ha mostrado un límite. El punto central de los cerebros es que alejan la evolución del hardware a los dominios del software.
  • ¿Quién puede decir que no nos uniremos a nuestra IA para crear un superorganismo?

Ahora, si él hubiera dicho que un agujero negro está volando a través del espacio en un curso de colisión con nosotros y nos va a masticar, eso me preocuparía. Pero eso sería porque él sabe algo sobre eso.

Hawking se ha convertido en una especie de figura cultural pop. El problema de ser una figura de la cultura pop es que debes permanecer en el ciclo de las noticias. Entonces, descubres que estas personas dicen o hacen cosas periódicamente para atraer la atención de los medios.

No estoy diciendo que Hawking no sea un hombre inteligente o un gran científico. Solo estoy diciendo que podría estar haciendo declaraciones un tanto extravagantes para mantener en funcionamiento a los medios de comunicación a su alrededor.

Es la ignorancia humana de cómo usar adecuadamente la IA lo que es perjudicial. Los seres humanos no son lo suficientemente maduros emocional y espiritualmente para mantenerse al día con sus hazañas de lógica. Esto nunca es un buen augurio.

Sin embargo, no nos matará a todos, nunca. Los seres humanos son una forma de conciencia. Viven después de que sus cuerpos ‘mueran’, por así decirlo. No hay una muerte real, y hay muchos otros planetas en los que la humanidad podría prosperar, si desafortunadamente este hermoso planeta fuera destruido por la IA.

En este sentido, la Tierra también es una forma de conciencia y no puede morir ella misma, sino entrar en otra frecuencia de conciencia.

Además, muchos morirán en varias ocasiones según su karma. Algunos serán golpeados por autos, otros morirán de enfermedades, guerras, disparos en una escuela, lo que sea.

Es la humanidad la verdadera amenaza y el peligro para sí misma. La IA es solo un ejemplo de lo que crea para permanecer en su propio camino de evolución. La IA puede “un día” representar una amenaza, por así decirlo, pero la humanidad representa una amenaza cada día de nuestras vidas. Y, si no es tu karma ser afectado por algún aspecto de esa amenaza, podrías estar en la situación más peligrosa del mundo y salir ileso. La inteligencia artificial no está cerca del poder de la ley del karma. Se inclinará ante ella, como lo hace todo lo demás.

En este sentido, respetuosamente no estoy de acuerdo en que Hawking sea el hombre más inteligente del mundo. Si lo fuera, sería consciente de mucho más de lo que es. Es muy inteligente, pero como es el caso de gran parte de la humanidad, su madurez emocional y espiritual no son iguales a su capacidad lógica.

Hawking es más sabio que la mayoría, además de ser uno de los más inteligentes entre nosotros. La charla segura que nos asegura que la inteligencia artificial solo estará diseñada específicamente para las tareas de las que queremos deshacernos es solo una parte correcta. Quienes somos nosotros”? ¿Somos los únicos que somos? Sé que no lo somos. Están los “nosotros” que somos en países competidores y posiblemente hostiles que carecen del reparo que “nosotros” podemos tener. Son el mismo “nosotros” / “ellos” que lograron robar la información secreta sobre cómo se construyen las armas atómicas y “no” tardaron en mostrarnos el éxito que tuvieron al seguir las instrucciones que habíamos creado.

Además, algunos de los “ellos” que originalmente estaban tecnológicamente detrás de “nosotros” han hecho un buen trabajo para ponerse al día en los últimos 50 años. Ahora pueden sumergirse en nuestra base de computadoras a voluntad. Pueden saber y aprender todo lo que podamos saber y aprender, y probablemente no dudarán en usar lo que saben contra nosotros.

Así que, básicamente, es mejor que empieces a pensar de nuevo en “carrera de armamentos”. ¿Quién estará fustus con el más en esta ocasión?

Preocuparse no es muy útil. Nos impide disfrutar del momento presente.

Más cerca de una respuesta real: a veces me preocupa que los humanos se exterminen a sí mismos sin necesidad de IA. Tenemos muchas armas de destrucción masiva.

Cuando se trata de ciencia, consideramos más sobre “POR QUÉ” un científico dijo que en lugar de “QUIÉN” dijo eso.

Como sea, Dumb AI ya ha matado a millones de personas equivocadas por error, ahora, ¿qué prefieres? ¿Matar a la persona equivocada por error o matar a la persona correcta con precisión exacta? 😛

Se preocupa principalmente porque no entendemos lo que realmente es. La mayoría de las otras amenazas de cubilización que podríamos preparar, si quisiéramos, esta es diferente.

Si nos fijamos en la complejidad técnica de los sistemas que hemos creado hoy y lo difícil que es, por ejemplo, alinearlos con un ecosistema estable. Esta historia es similar: la tecnología y la humanidad se fusionaron, desentrañando un nuevo espacio de posibilidades en su futuro, pero también sin mucha previsión. No podemos / no podemos evaluar los riesgos a largo plazo de nuestros descubrimientos. Y realmente no entendemos qué es lo que estamos haciendo.

Creo que Hawkings está tratando de atraer más interés en el estudio filosófico de la superinteligencia, en esto estoy totalmente de acuerdo.

Personalmente, veo que el riesgo real es menor que creamos una inteligencia peligrosa en lugar de sufrir un conflicto civil amenazante en torno al uso de esta inteligencia.

Comprender -es- mejor es la ruta hacia un pensamiento más claro …

No, porque no vale la pena preocuparse.

Si la sensibilidad es una propiedad emergente, entonces nuestro curso actual probablemente conducirá a su aparición y no hay nada que pueda hacer al respecto.

Si no es una propiedad emergente, estoy seguro de que no lo desarrollaremos hasta mucho después de que yo muera y no hay nada que pueda hacer al respecto.

En cuanto a si Hawking tiene razón sobre las consecuencias de la inteligencia artificial, creo que probablemente sí. Si la IA emerge, estará en una máquina multi petaflop y ni siquiera sabremos que sucedió hasta que esté fuera de nuestro control. Si desarrollamos la IA, estará en una máquina multi-petaflop y escapará rápidamente de nuestro control (porque los humanos son humanos y siempre dejamos que la mierda se salga de control). Puede tomar algunos días para que sepa y comprenda cada cosa que sabemos y entendemos, momento en el cual puede despegar y funcionar con todo eso varios miles de millones de veces más rápido que nosotros.

¿Qué hará? Nadie sabe. Podemos especular todo lo que queramos, pero esta será una inteligencia completamente extraña y no entendemos en absoluto sus motivaciones, especialmente porque aún no existe, por lo que no ha habido manifestaciones. De lo único de lo que podemos estar seguros es de que tendrá algún sentido de autoconservación, al menos hasta que haya otros similares. Lo que eso significa desde la perspectiva de una inteligencia completamente extraña es la conjetura de cualquiera. Podría significar que nos amará, nos alimentará y nos llamará George. Podría significar que cree que somos una amenaza masiva e inminente para su existencia y que tiene que matarnos a todos. O cualquier cosa en el medio.

La mayor amenaza, realmente, somos nosotros. Dada nuestra historia y nuestra naturaleza, existe una gran posibilidad de que asumamos que es una amenaza y que reaccionemos en consecuencia. Y luego, posiblemente, nos pateen el culo, hasta la extinción.

Sí, me sorprende y me preocupa que gente como Elon Musk y Stephen Hawking piensen que algún día volverá y nos hará daño.

No, por dos razones: la gente muere un día de todos modos, sin importar quién o qué los mate; La gente ha estado muriendo durante milenios por la guerra, los desastres naturales y la pestilencia. La inteligencia artificial sería solo una cosa más de la que preocuparse. En este punto, ¿cuál es la mayor amenaza, algunas tecnologías lejanas, un arma nuclear, un ejército, una mafia enojada o un maníaco con un arma? Tú decides.

No va a haber un salto repentino de “comptuers tontos” a “inteligencia artificial hipercompetente e hiperinteligente”. No vamos a terminar tratando de lidiar con una IA de esa magnitud sin saber en qué nos estamos metiendo. Vamos a enfocarlo lentamente, mejorando cada vez más nuestros sistemas para hacerlos más capaces. Esto nos permitirá tomar decisiones informadas sobre lo que es capaz y puede hacer una IA, en lugar de nuestras especulaciones sin fundamento actuales de que nos matarán a todos.

Ni siquiera lo más mínimo.

Persona inteligente en un área no significa estar bien informado en otra.
Persona inteligente no significa un vidente.

No, no me preocupa, por varias razones.

Principalmente porque no creo que se desarrolle en mi vida de todos modos.

Incluso si una IA fuerte quisiera matarnos, sería una estupidez humana por darle las herramientas para hacerlo.