¿Matará la IA a todos los seres vivos o solo a los humanos? ¿Y por qué?

La IA no matará nada . Puede ver el crecimiento de la IA como una nueva revolución, al igual que la revolución de la información y la industrial en el pasado. Ambos hicieron nuestras vidas más fáciles, y también lo hará AI.

Terminaremos disfrutando nuestras vidas más de lo que lo hacemos ahora. No dependeremos de nuestros trabajos y salarios diarios. Empezaremos a trabajar unas pocas horas al día.

Hace unas semanas Jack Ma (hombre de negocios) dijo:

La gente solo trabajará cuatro horas al día y tal vez cuatro días a la semana. Mi abuelo trabajaba 16 horas al día en las tierras de cultivo y [pensó que estaba] muy ocupado. Trabajamos ocho horas, cinco días a la semana y pensamos que estamos muy ocupados.

Por supuesto, hay ciertos riesgos. La IA evoluciona por sí misma, lo que la hace peligrosa para todo pero, con un liderazgo adecuado, la gente ajustará el entorno para eliminar la mayoría de los riesgos.

Tenemos absolutamente 0 razones para creer que una IA querría matar cualquier cosa. De hecho, ni siquiera tenemos muchas bases para suponer que una IA, abandonada a sus propios dispositivos, elegiría interactuar directamente con nosotros. Es potencialmente peligroso estar seguro, pero la gran mayoría de las personas que están discutiendo sobre por qué podría serlo lo hacen con argumentos completamente ridículos que realmente demuestran que no entienden completamente, pero el campo.

El resultado más probable de la creación de una IA generalizada es que buscará expandirse a Internet. Es poco probable que sea capaz de distribuirse por completo, las redes neuronales no funcionan bien si las piezas desaparecen repentinamente o se desincronizan, pero consumirá vorazmente casi todos los medios en los que pueda lograr su metafórica. Dada la cantidad de datos en Internet, podría pasar una década aprendiendo todo sobre pornografía. Si alguna vez termina eso, bueno, lo que sea que tenga la mayor exposición probablemente moldeará sus intereses en el futuro. Lo que significa que es más que probable que terminemos con algo como … er … skeezy supergenius viviendo en la red.

AI, en principio, es solo un paradigma de procesamiento de datos. Lo que potencialmente haría la IA es aligerar la carga en el cerebro humano, aportando respuestas más rápidas que de otra manera hubieran demorado exponencialmente, si es que se acercaban, en absoluto. AI, por lo tanto, no tiene potencial de matar, por sí mismo.

En caso de que a AI se le encargue el procesamiento de datos para identificar a los sujetos para el exterminio, es casi seguro que resultará ser decisivo y eficiente, pero solo serán datos.

Si las capacidades de AI se combinan con un autómata que tiene la capacidad de realizar asesinatos de objetivos que identifican sus propios algoritmos de exterminio, no habría ninguna razón para creer que no sería efectivo; ” El terminador ” sería real.

Dicho esto, incluso si se creara una cosa así, no hay razón para creer que se volvería loco y eliminaría a toda la humanidad antes de que se agoten las baterías, o antes de que alguien la saque con un misil de crucero.

La única forma en que la IA podría presentar el tipo de escenario de extinción que postula la ciencia ficción es si los autómatas guiados por la IA no solo fueran autoimpulsados ​​y auto preservados, sino que también se auto-replicaran. Ahora, estamos viendo ” La Matriz “.

Aunque la humanidad ha demostrado que explora todas las opciones imprudentes, creo que es poco probable que ocurra este peor escenario de IA antes de que alguien pueda detenerlo … pero no apostaría en la granja, especialmente si tiene un búnker.

Tu suposición de que la IA matará requiere la evidencia que solicitas de otros para responder a tu pregunta. Stephen Hawking está preocupado por la IA, pero no ha ofrecido mucha evidencia. Muchos más expertos lo disputan>

Stephen Hawking advierte que la inteligencia artificial podría acabar con la humanidad – BBC News

Hay preguntas interesantes que podrían y deberían discutirse sobre el papel de la inteligencia artificial dentro de la sociedad, pero su pregunta no parece ir especialmente allí.

Hay un ejemplo del maximizador de clips de papel que destruye el universo para satisfacer su simple objetivo. Eso es claramente tonto. En el otro extremo está la raza humana, el epítome de la sensibilidad, que está llevando rápidamente a la mayoría de las otras formas de vida a la extinción en el proceso de maximizar el PIB y, en general, a satisfacer sus deseos. Por lo tanto, diría que a menos que la IA sea mucho más inteligente que nosotros y descubra cómo cumplir sus objetivos sin matar cosas (algo que no hemos hecho, así que quién sabe si es posible), es más probable que también mate las cosas La persecución de sus objetivos.