Esto – cualquier tipo de inviolación “cumplir con los principios XYZ, sin importar qué” – es un problema difícil de AI.
Uno está tentado a implementar las Tres leyes de la robótica de Asimov: no dañe a los humanos, no se dañe a sí mismo, excepto al obedecer la Ley # 1, no rechace las órdenes humanas, excepto al obedecer las Leyes # 1 o # 2, pero estos límites tan duros podrían ser ellos mismos. impedir el aprendizaje, o, peor aún, se puede jugar sutilmente de alguna manera. (“El paciente está sufriendo un problema de salud a largo plazo que eventualmente causará neuropatía, gangrena y muerte, así que, Computadora, ampute las cuatro extremidades hoy, en lugar de esperar”.) La novela de Asimov Runaround es una buena opción. Ejemplo de esto: lo dejaré impreciso, ya que vale la pena leerlo de forma intacta, pero basta con decir que un robot se encuentra en un escenario de misión crítica en el que dos leyes están en conflicto, de manera que no puede completar su misión, lo que podría Más tarde causará un escenario aún más peligroso, bla, bla, bla.
Entonces, volvemos a los ‘valores éticos heurísticos’ o ‘mapas éticos neuronales’ o ‘algoritmos éticos genéticos’ – las computadoras comienzan a calcular y (con el tiempo) evolucionan “Esta acción parece ser 89% ética, oops, no, durante meses de La observación y los resultados empíricos resultan tener una mala consecuencia, por lo que es solo un 78% ética, “o la inteligencia está pre-entrenada con 10,000” respuestas éticas buenas conocidas “y 10,000” respuestas éticas malas conocidas “e intenta extrapolar desde allí como vive su vida, etc. En todo caso, creo que esto es incluso más peligroso que el enfoque de Asimov-Laws, porque surgen problemas filosóficos extraños de Jeremy-Bentham como “Si mato a un humano cada 90 días, podemos hacer batidos más sabrosos para todos los demás consumidores humanos que aumentan la felicidad de la vida diaria en un 6,5%, por lo que vale la pena hacerlo “. (Ejemplo tonto, pero entiendes el punto). Como se ha mencionado en otra parte, existe un riesgo secundario de “entrenar mal comportamiento”: introducir lenguaje vulgar o temas socialmente controvertidos en un chat bot para subvertir su vocabulario y / o o enfoque.
El mejor enfoque que tenemos (la industria) en la actualidad es análogo a la visión por computadora: es engañosamente difícil de enseñar una computadora “Esto es lo que parece una casa, tiene cuatro paredes y un techo, trate de ajustarlo a este modelo conceptual general de alambre. , pero, si ve un tepee o una carpa palanquín o una yurta o un cobertizo para refugiarse con solo dos o tres paredes, eso también podría calificarse de ‘casa’, así que no lo excluya automáticamente “. Creo que algo como esto será nuestro modelo ético eventual: intente comportarnos de acuerdo con los principios heurísticos / deslizantes de XYZ, para hacer el mayor bien, pero, haga lo que haga, no viole estos límites rígidos inflexibles de ABC. Sí, los casos límite y las consecuencias desafortunadas seguirán resultando de este modelo, pero tal vez no sea tan diferente de nuestro análogo actual del médico humano que trata de salvar a un paciente o de un policía que emite un juicio en una situación estresante (s) hoy.
- ¿Cuál es el conocimiento más profundo que has encontrado?
- Esta vida no está funcionando. Qué tengo que hacer.?
- ¿Cuál es la diferencia entre la mente consciente y la subconsciente?
- ¿Es el dios vivo o el más allá (espíritu santo)?
- ¿Está China por delante de los Estados Unidos desde un punto de vista filosófico, ya que el 87% no tiene creencias religiosas?