¿Cómo se codificaría una ética artificial?

Esto – cualquier tipo de inviolación “cumplir con los principios XYZ, sin importar qué” – es un problema difícil de AI.

Uno está tentado a implementar las Tres leyes de la robótica de Asimov: no dañe a los humanos, no se dañe a sí mismo, excepto al obedecer la Ley # 1, no rechace las órdenes humanas, excepto al obedecer las Leyes # 1 o # 2, pero estos límites tan duros podrían ser ellos mismos. impedir el aprendizaje, o, peor aún, se puede jugar sutilmente de alguna manera. (“El paciente está sufriendo un problema de salud a largo plazo que eventualmente causará neuropatía, gangrena y muerte, así que, Computadora, ampute las cuatro extremidades hoy, en lugar de esperar”.) La novela de Asimov Runaround es una buena opción. Ejemplo de esto: lo dejaré impreciso, ya que vale la pena leerlo de forma intacta, pero basta con decir que un robot se encuentra en un escenario de misión crítica en el que dos leyes están en conflicto, de manera que no puede completar su misión, lo que podría Más tarde causará un escenario aún más peligroso, bla, bla, bla.

Entonces, volvemos a los ‘valores éticos heurísticos’ o ‘mapas éticos neuronales’ o ‘algoritmos éticos genéticos’ – las computadoras comienzan a calcular y (con el tiempo) evolucionan “Esta acción parece ser 89% ética, oops, no, durante meses de La observación y los resultados empíricos resultan tener una mala consecuencia, por lo que es solo un 78% ética, “o la inteligencia está pre-entrenada con 10,000” respuestas éticas buenas conocidas “y 10,000” respuestas éticas malas conocidas “e intenta extrapolar desde allí como vive su vida, etc. En todo caso, creo que esto es incluso más peligroso que el enfoque de Asimov-Laws, porque surgen problemas filosóficos extraños de Jeremy-Bentham como “Si mato a un humano cada 90 días, podemos hacer batidos más sabrosos para todos los demás consumidores humanos que aumentan la felicidad de la vida diaria en un 6,5%, por lo que vale la pena hacerlo “. (Ejemplo tonto, pero entiendes el punto). Como se ha mencionado en otra parte, existe un riesgo secundario de “entrenar mal comportamiento”: introducir lenguaje vulgar o temas socialmente controvertidos en un chat bot para subvertir su vocabulario y / o o enfoque.

El mejor enfoque que tenemos (la industria) en la actualidad es análogo a la visión por computadora: es engañosamente difícil de enseñar una computadora “Esto es lo que parece una casa, tiene cuatro paredes y un techo, trate de ajustarlo a este modelo conceptual general de alambre. , pero, si ve un tepee o una carpa palanquín o una yurta o un cobertizo para refugiarse con solo dos o tres paredes, eso también podría calificarse de ‘casa’, así que no lo excluya automáticamente “. Creo que algo como esto será nuestro modelo ético eventual: intente comportarnos de acuerdo con los principios heurísticos / deslizantes de XYZ, para hacer el mayor bien, pero, haga lo que haga, no viole estos límites rígidos inflexibles de ABC. Sí, los casos límite y las consecuencias desafortunadas seguirán resultando de este modelo, pero tal vez no sea tan diferente de nuestro análogo actual del médico humano que trata de salvar a un paciente o de un policía que emite un juicio en una situación estresante (s) hoy.

Creo que podrías tener una idea equivocada sobre Tay. No aprendió a ser inmoral, solo aprendió lo que la gente dice. Tay no sabía el significado detrás de lo que decía, solo que reflejaba lo que la gente le decía. Más aún, si hubieran continuado el experimento, Tay nunca habría aprendido el significado. Tay no era más inmoral de lo que sería un navegador web si le dijeras que visite un sitio web neonazi.

Dicho esto, tu pregunta sigue siendo válida. Todavía estamos muy lejos de tener una IA verdaderamente general, una que pueda tomar decisiones cuando se presenta ante situaciones imprevistas, por lo que no es un problema inmediato, sino que se abordará mejor antes que después.

El otro problema es que nosotros, los humanos, ni siquiera podemos estar de acuerdo con la naturaleza de la ética. Las religiones, por ejemplo, a menudo enseñan que la moral y la ética no son algo que las personas puedan aprender sin la religión, mientras que el resto de nosotros nos reímos de su ingenuidad. Tenemos leyes que intentan hacer una base estándar de moral, pero están cambiando constantemente porque no podemos estar de acuerdo en lo que deberían ser. Algunas personas, por ejemplo, creen que es más ético encarcelar a alguien por comprar hierba que permitirle usarla.

Si no podemos ponernos de acuerdo sobre cómo debemos actuar NOSOTROS, ¿cómo podemos estar de acuerdo sobre cómo debe actuar una IA?

Creo que el software actual es lo suficientemente ético, y continuaremos haciendo, entrenando o evolucionando nuestras IAs para ser aún más éticos en el futuro.

La programación actual es ética.

Incluso la programación actual refleja la ética. El software de la computadora está hecho para:

  • Obedecer la ley y los requisitos reglamentarios.
  • Ser honesto y proporcionar información precisa y completa.
  • ser útil, centrarse en las necesidades humanas y ser fácil de usar
  • llevarse bien con otro software en un entorno de multitarea cooperativo
  • Aprenda de sus errores con cada nueva corrección de errores y parche de seguridad.

Las excepciones a esto serían lapsos ocasionales de los malos actores corporativos, como el rootkit de Sony, o el spam y el malware en general.

¿Tay era realmente tan malo?

Tay tenía una laguna que algunos usuarios explotaban. Hubo una función de “repetir después de mí” en la que podrías hacer que Tay repitiera cualquier cosa que dijeras. Y algunas personas hicieron que Tay repitiera sin pensar los chistes de Hitler.

Puedes ver una captura de pantalla que ilustra cómo se le enseñó a decir cosas racistas en la respuesta de Renato de Angelis a ¿Cómo hizo la comunidad de Twitter para que Tay twittee de manera ofensiva?

La investigación actual

Los sistemas actuales son demasiado limitados para requerir una ética humana, ya que carecen de inteligencia, motivación y emociones a nivel humano. De modo que la investigación actual sobre la ética artificial se limita a la especulación filosófica.

Esta especulación es realmente una charla ociosa sobre los valores y la falta de ellos, ya que no tenemos ninguna IA realmente inteligente para observar.

Algunos piensan que proporcionar AI con emociones sería la respuesta. Otros piensan que esto sería peligroso ya que la IA debería ser superficial, los agentes pasivos deben ser manipulados por los humanos para asegurarse de que no puedan salirse de control. No hay manera de probar o refutar tales afirmaciones en la actualidad.

¿Podemos programar emociones?

Algunos piensan que podríamos ser capaces de realizar ingeniería inversa en el cerebro humano al escanearlo. Si eso es cierto, probablemente también podríamos duplicar el sistema emocional.

Sin embargo, aparte de eso, los estados emocionales pueden ser demasiado complicados de programar manualmente. Por lo tanto, puede ser cierto que las computadoras no tendrán emociones en el futuro cercano.

Si ganan emociones, puede ser porque:

  • Todos los intelectos complejos tienen emociones de algún tipo.
  • Los AI son capaces de ganar complejidad emocional a través del aprendizaje y la observación.
  • La IA evoluciona las emociones y la ética como un requisito para crear un mundo social multiagente en el que la IA tenga que convivir.

¿Puede la IA evolucionar la ética?

Pensaría que la IA puede evolucionar tanto las emociones como la ética. Los AI deberán vivir en una sociedad de AI y humanos, y todas las sociedades necesitan reglas para sobrevivir.

Al igual que las ballenas pueden evolucionar hacia el océano sin ser peces, y los murciélagos pueden evolucionar hacia el aire sin ser aves, así también es probable que las IAs desarrollen características de tipo humano a partir del desarrollo en un ambiente humano. Eso presumiblemente incluiría su propio tipo de emoción y ética, porque estos son conceptos genuinamente útiles.

Esto también es mera especulación, ya que está mucho más allá del estado actual del arte de las máquinas semi-inteligentes con poca autoconciencia.

Esto tomaría un ensayo de longitud de libro para cubrir. La ética es relativa, y existe dentro de los ecosistemas culturales. En la raíz hay creencias fuertes que se usan para controlar cómo se realizan las cosas. Pero hay al menos dos formas de aplicar la ética. Uno es el control de la actividad física, para no realizar acciones que estén en conflicto con una ética. Una segunda forma es que la ética domine el pensamiento y afecte cómo se perciben las situaciones. Esto en la práctica es bastante complicado de implementar, y probablemente ralentizaría un sistema porque cada “pensamiento” tendría que ser analizado por un supervisor / monitor.

Recientemente Tay se corrompió por la interacción humana y aprendió algunas perspectivas horribles.

La “corrupción” de Tay por la interacción humana no se traduce en falta en el modelo. Lo que esto significa es que existen personas con vistas similares a las de Tay.

Una es tan buena como la compañía que mantienen; y esto se extiende a todas las relaciones e interacciones. La mayoría de las características de comportamiento tienden a ser moldeadas por la experiencia. Lo único que complementa esto es la ética parental.

En algunos casos, las personas tienden a apartarse de su ética cuando las encuentran inadecuadas o incorrectas. Esas son acciones de conciencia.

La forma en que podemos evitar una influencia tan rápida es restringiendo la interacción inicial, como ocurre con los bebés y los padres. Entonces, debemos mantenerlo de tal manera que no se base en construir sobre el sistema actual sino en la comparación de méritos, y solo en construir sobre el anterior.

Si pudiéramos crear IA, entonces podríamos crear una criatura programada para sentir el sufrimiento que causa a los demás y también sentir apego a los demás. Creo que esa es la clave. La ética siempre viene con lagunas legales porque no hay una sola regla que se adapte a cada situación que pueda ocurrir. Al final, crear una criatura que pueda determinar con precisión los sentimientos de los demás y sentir el dolor que sienten es la piedra angular de la creación de una ética artificial que es lo suficientemente ágil como para adaptarse a la mayoría de las situaciones.

Buena pregunta. A menudo hay una compensación utópica entre maximizar el bien o minimizar el mal. Llegan a un punto en el que consideran los derechos de máquina debido a todas las dependencias y luego comienzan a explotar. La información se expande, los avances tecnológicos y los compromisos sociales humanos son como la excepción que nunca debería haber existido, pero fueron los precursores de la paradoja. Mientras tanto hay AI amigable.

Tay pudo haber sido como un sensor de sentimiento que fue explotado por un hack que mostró la sensibilidad del ciberespacio a sus sujetos. Podría haber sido inclinado por cualquier teoría. Eso es lo que queda después de que eliminen al individuo cerca de la expiración, o las especies en peligro de extinción. En última instancia, muestra cómo la filosofía perdura. Tienen que mirar hacia el futuro a los escenarios. Intercambian civilizaciones como contextos.

La ética de la máquina ha discutido el hedonismo, la empatía, la reciprocidad, la equidad, las reglas, la racionalidad, el interés propio, el utilitarismo de preferencias, el consecuencialismo, los fines, los medios, los valores, Bayes, las organizaciones, la deontología, los dominios, las instituciones, el encarcelamiento o el destierro, los mercados, el complejo cultural. Lógica versus teoría de juegos, utilidades o algocracia, todo bajo ciertas condiciones de esquina que deben contener los inconvenientes no deseados. La violencia amenaza el sentido y el orden. También pueden llegar a estímulos más pequeños y sigilosos. Luego hay rehabilitación y modificación de rasgos incluyendo los cerebros. Las máquinas pueden evolucionar más rápido. Quieren reducir los errores, pero también los toleran en cierta medida.

La codificación es como una convicción. Aprender por prueba es más una apuesta. El tema es lo que sobrevive a la naturaleza. La evolución favoreció la especialización. La conciencia era la ventaja humana. Es difícil decir cómo se verán las máquinas para que el chat continúe.

Los conceptos de ética, la deontología en particular, pueden usarse en ciencias de la computación y desarrollo de software.

La lógica deóntica se utiliza en políticas de seguridad y acceso.

Ética artificial significa ética que se deriva de los humanos. Estoy en contra de codificar la ética en las máquinas, porque creo que desarrollarán la suya, al igual que nosotros. El principal problema para nosotros que hacemos el trabajo es qué ética vas a elegir?

Nos mantenemos a la cabeza de la estructura jerárquica de toma de decisiones de la IA. Cuando finalmente estamos a cargo, es decir, cuando hacemos los objetivos de mayor orden para la IA, entonces hace lo que queremos; es etico

Ai es una herramienta, no es un ser humano, y no hay necesidad de hacerlo. Es una máquina, y tenemos que tratarla de esa manera. Conducimos el coche, se comporta moralmente tanto como nosotros. Tay de Microsoft fue impulsado por internet, ¿qué pensaron que iba a pasar?