Si la IA puede resultar peligrosa para la humanidad, ¿por qué la construimos?

Se ha dicho, con solo una hipérbole, que la IA podría ser el último invento que la humanidad haga. Desde una perspectiva positiva, si esto fuera cierto, cualquier otra invención que necesitemos será descubierta por AI. Desde una perspectiva negativa, significaría que la IA desplaza a toda la creación humana.

No hay duda de que la IA es increíblemente poderosa. Está aprendiendo a realizar todo tipo de trabajo, desde mental hasta físico, tan bien o mejor de lo que la gente puede hacer ese trabajo. Desde la perspectiva de los propietarios de capital, eso es excelente: significa un mejor retorno de la inversión y un crecimiento más rápido.

Desde la perspectiva de las multitudes que pronto estarán desempleadas, es (o pronto será) aterrador. El peligro del desempleo tecnológico es muy, muy real. Escribí, más temprano hoy en Quora, sobre por qué aquellos que descartan esto no están bien fundamentados en este tema: la respuesta de Jonathan Kolber a ¿Cuál es la probabilidad de que el marco económico existente en el mundo esté en una espiral de muerte debido a la automatización que reemplaza a los trabajadores humanos y no proporciona suficientes trabajos nuevos para reemplazar los viejos trabajos?

Pero hay otro “peligro” que muchos están anunciando, que no será real. Este es el “peligro” de que las IA conscientes de sí mismas se apoderen del mundo y esclavicen o eliminen a la humanidad. La razón por la que esto es ilusorio tiene que ver con el tiempo . Las IA conscientes de sí mismas experimentarán el tiempo de manera completamente diferente de cómo lo experimentamos. Este hecho cambia todo sobre cómo se relacionarán con el universo físico y con los humanos. Aquí está la explicación: ¿Una Epifanía AI?

Las IA no conscientes de sí mismas, del tipo que tenemos ahora, pueden representar una amenaza, si los humanos que las programan tienen intenciones depredadoras. Podemos defendernos contra aquellos con otras IA. Una vez más, los conscientes de sí mismos, como en The Matrix o The Terminator, protegerán a la humanidad en formas vitales fuera de su propio interés.

En resumen, la mayor amenaza de la IA es su inminente interrupción del sistema económico y, en particular, el desempleo generalizado. Esa misma capacidad exacta de AI también podría permitir un mundo de abundancia universal, como se explica aquí: http: //www.ACelebrationSociety.c…

Depende de nosotros.

Leí algunas de las otras respuestas y decidí proporcionar una perspectiva ligeramente diferente.

Desarrollaremos IA, incluso si es peligroso simplemente porque todos quieren ser los primeros en hacerlo y todos saben que incluso si ELLOS renuncian a la aspiración de crear una verdadera inteligencia artificial, eso no significa que nadie más lo hará.

El primer país / compañía en crear una verdadera inteligencia artificial también tendrá el control de esa inteligencia artificial, y, naturalmente, todos piensan que ELLOS saben mejor cómo domesticar la IA e implementarla mejor en la sociedad.

Básicamente es una carrera en este punto, muy parecida a la carrera espacial. La IA va a suceder, y todos quieren asegurarse de que son ellos quienes la controlan cuando sucede, porque una IA controlada por otra persona es un pensamiento aterrador.

Supongo que estás hablando de AGI / IA recursiva (o semilla) / IA de la personalidad en lugar de la IA que tenemos ahora. Debido a que ahora tenemos AI y nuestro mundo, tal como es, no podría existir realmente sin ellos (la Búsqueda y el Traductor de Google son realizados por AI, por ejemplo). En cuanto a por qué podríamos hacer lo demás, hay muchas razones.

Algunas personas creen que la humanidad necesita cambiar para expandirse más allá de nuestro planeta (lo que la humanidad tendrá que hacer eventualmente) y, por lo tanto, necesitan fusionarse básicamente con la IA humana o casi humana, entre otras cosas. Otros creen que ven a la IA de nivel de persona como los hijos de la humanidad, por así decirlo. No es humano sino de la humanidad, por lo que ser peligroso para la humanidad no es una razón. Al igual que tener un hijo potencialmente peligroso para la madre no ha sido una razón importante para que las mujeres no tengan hijos.

AGI, o Inteligencia General Artificial, tiene el potencial de ser muy, muy bueno para muchos campos. Ahí es donde entra en juego la parte general. Un AGI podría ser bueno en muchos tipos diferentes de tareas, y si no alcanza la personalidad, entonces usar una IA para esas tareas podría ser muy bueno, por eso la gente las quiere. Desafortunadamente, potencialmente obtienes el escenario de clip con uno que tiene objetivos mal definidos y no tiene sentido de preservación de sus creadores. Potencialmente podría ser recursivo y si puede obtener conocimiento por sí solo (como a través de la experiencia), entonces lo es.

La IA recursiva es el problema de la IA de despegue difícil. Son la IA que podría mejorarse continuamente creando y posiblemente instalando nuevas piezas según sea necesario, así como alimentando información para aumentar su base de conocimiento. Uno de estos probablemente alcanzaría la personalidad en algún momento, pero podría ser un tipo de persona drásticamente diferente de lo que la humanidad tiene y, por definición, eventualmente se convertiría en un AGI, incluso si no comenzó de esa manera. La razón por la que las personas podrían estar interesadas en crear esto es porque es una de las formas de hacer potencialmente una IA de personalidad (a través de algo como la emulación del cerebro completo). Sin embargo, el peligro aquí es el potencial de un despegue difícil para la inteligencia artificial (que generalmente se considera malo y es más probable que resulte en un escenario de IA hostil o que no note personas, humanos o de otro tipo, como algo más que solo otro animal)