¿Qué hace que sea inmoral matar humanos? ¿Es más el hecho de que son racionales o de que son sensibles?

Desde el punto de vista ético, la ética práctica de Peter Singer da la mejor respuesta según el utilitarismo preferencial. Dice que matar a una persona está mal, ya que esa persona tiene deseos que solo se pueden completar en el futuro. Matarlo le quitó la oportunidad a una posible felicidad. Además, otros humanos ahora viven con el temor de ser asesinados si el asesinato se hace público. Su miedo causa dolor. Por lo tanto, un ser que tiene sentido del tiempo y deseos en el futuro (llamado como persona) no puede ser asesinado éticamente.

La inteligencia de algún nivel es necesaria para eso, pero incluso pocos animales pueden alcanzar tal inteligencia. Entonces, sí, matar animales tampoco es ético. Pero, no nos importa es una cosa poco ética que aún continuamos. Como nadie puede castigarte por no ser ético. Solo por violar una ley. Solo los humanos hacen leyes, así que nosotros no hacemos leyes contra la crueldad animal, ya que queremos carne.

Ahora, sea lo que sea lo que muestren las películas de ciencia ficción, estamos lejos de crear IA que quiera continuar viviendo dejando de lado otros deseos. Entonces, como finalmente son equivalentes a un mueble en términos de deseos, pueden ser asesinados éticamente. Más éticamente que incluso matar en la eutanasia.

Pero, siento que el nivel de inteligencia que aparece en esta pregunta no es de futuro cercano. Puede ver la película ex machina que trata estos problemas y plantea tales preguntas.

El lugar y el tiempo.
Más concretamente, cualquier acción dada (en algún momento de la historia) se ha considerado aceptable (moral y ética), en una cultura u otra.
El desafío más amplio a esta pregunta quizás podría ser el concepto de “guerra”. Muchas veces se ha considerado inmoral NO participar en la guerra de una sociedad determinada, durante la cual se ESPERARÁ que mate a otros seres humanos. Históricamente, muchas clases de guerreros se han enorgullecido de mostrar evidencia de la muerte de un enemigo.
Incluso ahora, hay muchas ocasiones en las que no se considera inmoral (socialmente hablando) matar a otro ser humano. El primer ejemplo es la defensa propia. Si, en la lucha, tu asaltante pereciera, habría una investigación, pero no necesariamente serías considerado inmoral.
Su tercera determinación parece ser la más correcta. De hecho, todos somos humanos, y algunos de nosotros hacemos las reglas.

Larga historia corta:

Los humanos inventaron la moral para servir sus propios intereses.

“Un ser sensible que es capaz de sentir dolor” es mi criterio para ser considerado un compañero.

Versión más larga:

La moral no existe en la naturaleza. Los inventamos!

Entonces, ¿qué hace que algo sea moral? Lo que decimos es. Lo que decimos colectivamente es. Algunas cuestiones en las que todos estaremos de acuerdo, otras cuestiones en las que no estaremos de acuerdo.

¿Por qué todos parecen estar de acuerdo en que matar humanos es inmoral? Porque estamos vivos y nos conviene hacer que sea inmoral que alguien nos mate . Así de simple!

Un poco más largo:

Ahora, vamos un poco más profundo y razonemos sobre una pregunta más difícil. Si se inventa la moral, ¿cómo debemos inventarla? ¿Es moral inventar una moral que solo funcione para nuestro propio interés? La pregunta es obviamente no trivial. Se podría argumentar que deberíamos establecer algunos valores más altos y deducir otras morales de. Como “empatía” y “equidad”. Algunos incluso argumentan que los mamíferos tienen estos valores de alguna manera implantados en sus genes a través de la selección natural. Y los psicólogos del comportamiento sostienen que la empatía es una “ventaja de supervivencia colectiva”. Pero, ¿qué pasa si empatizas con un asesino? ¿Qué pasa si el asesino cree que es justo matar? ¿Deberíamos seguir a los humanos “instintivos” sobre la justicia? Tenga en cuenta que esto es solo una propuesta. Nadie puede dar una prueba definitiva de que tenemos que hacer esto.

Si no acepta el hecho de que deberíamos usar absoluta “empatía” y “justicia” como fuente de moral. Me gustaría escuchar tu teoría alternativa, si tienes alguna.

Echemos un vistazo más de cerca a la empatía, porque creo que es más relevante aquí. Los humanos evolucionaron para empatizar solo con su tribu. Esto explica cómo un soldado lloraría por la muerte de su amigo soldado. Pero es genial, incluso feliz, con matar a un chico de la “otra tribu”.

No evolucionamos para empatizar con cada (cuerpo), y mucho menos cada (cosa). Por eso, es muy difícil convencer a las personas de que no deben matar animales refiriéndose a su poder de empatía. Tienes que forzar la empatía. Esta es la razón por la cual los humanos reaccionan de manera diferente si el animal muerto es un perro o un pollo. Estamos entrenados para empatizar con perros, no con pollo. ¿Ver? La empatía es una habilidad que puedes entrenar a los humanos para adquirir. Apliquemos este razonamiento a animales y robots y veamos cómo funciona:

Para animales:

Es más fácil para los humanos empatizar con los animales que sienten dolor. Es fácil verte a los ojos de tu perro. No soy vegetariano y no pretendo ninguna superioridad moral sobre las personas que me rodean, pero creo que las personas vegetarianas son mejores que yo en el sentido de que podrían incluir animales en su “tribu”.

Para robots:

¿Tendremos robots que sientan dolor? Dudo esto No me queda claro por qué los humanos alguna vez sentirían empatía con una máquina, siempre y cuando entiendan que es una máquina. ¿Cuándo fue la última vez que lloraste por tu computadora portátil muerta?

——

Relacionado rápidamente con su distinción entre lógico y sensible. Creo que ninguna de estas cualidades por sí sola me hará sentir empatía. Trataría de sentir empatía solo por un ser sensible que es capaz de sentir dolor. Teniendo en cuenta que es difícil acordar una definición absoluta de sensibilidad o dolor. Estoy contento con la definición subjetiva.

Esa es una muy buena pregunta. Creo que el tabú contra el asesinato comenzó hace mucho tiempo en pequeños grupos. Como animales sociales, tenemos fuerza en los números. Matar a uno de los nuestros es debilitar nuestra posición. Sin embargo, matar a un miembro de una tribu vecina no habría sido tabú y, de hecho, se habría animado (porque fortalecería a su grupo).

A medida que las personas comenzaron a organizarse en grupos cada vez más grandes, el tabú comenzó a extenderse más allá de la tribu, raza, nación, etc. Eventualmente, el tabú se extiende hacia toda la humanidad (para los civiles).

Será (y ha) ido más allá. Cuando no podemos resistirnos a comerlos, amamos y protegemos a nuestros animales. Tratar a un perro o un gato como tratamos al ganado o los cerdos es invitar al desprecio y al enjuiciamiento.

Tomado en este contexto, no necesitamos proporcionar una justificación de por qué es inmoral matar humanos. Lo vemos en términos de tabúes naturales diseñados para proteger la especie.

Pero eso no ha impedido que los filósofos lo intenten. No voy a entrar en todos los argumentos religiosos. Todos son incoherentes y defectuosos. Baste decir que se requieren muchas palabras elegantes para conciliar nuestra moral con nuestras inconsistencias.

Dudo mucho que nosotros, como especie, consideremos inmovilizar una máquina inteligente. La inteligencia artificial ya está aquí y se usa todos los días. Los programas se eliminan rutinariamente y los mejores se hacen de sus partes. Es posible que alguien construya un robot humanoide cuyas expresiones faciales estén diseñadas para recordarnos a una persona. Pero eso es una distracción. Las inteligencias verdaderamente poderosas son no corporales y están en red.

Matar a una criatura sensible innecesariamente es inmoral, por lo tanto (innecesariamente) matar a un humano, o cualquier otro animal, es inmoral debido a nuestra sensibilidad.

Sin embargo, si vamos a crear el escenario hipotético en el que tienes que elegir entre matar a dos mamíferos (animales igualmente sensibles), uno de los cuales es más racional que el otro, diría que quizás sea preferible matar a la criatura menos racional. Esto es porque más Las criaturas racionales tienen una mayor capacidad de pensar, es decir, preocuparse y preocuparse. El estrés podría ser más intenso para una criatura más racional, ya que sus pensamientos podrían llevarlos a preocuparse por la familia, los seres queridos, etc., frente a la perspectiva de la muerte. En pocas palabras, una criatura más racional podría pensar demasiado en la muerte, convirtiéndola en una experiencia aún más aterradora y aterradora.

Esto, por supuesto, excluye los casos de fe en los humanos, donde alguien puede aceptar pacíficamente la muerte sabiendo que le espera otra vida, que no es el caso de otros animales.

También significa que un humano con retraso mental, incapaz de estos procesos de pensamiento, puede ser menos inmoral para matar que algunos animales (el filósofo Peter Singer tiene un trabajo extenso sobre este tema).

En cuanto a los robots, mientras sean insensibles, no pueden sufrir, por lo que la mera racionalidad no hace inmoral “matarlos”. Sin embargo, se podría argumentar que la racionalidad no podría existir sin la sensibilidad. Entonces, realmente depende de si podríamos hacer robots racionales pero no inteligentes.

Creo que la naturaleza humana siendo de algún modo sagrada o santificada es absolutamente ridícula. Eres humano simplemente por tu disposición de ADN, y no hay nada muy sagrado en nuestra disposición específica. Un ser humano no es inherentemente más importante que otros animales en ningún sentido objetivo, y los argumentos de santidad son débiles e infundados.

En el budismo, los seres sintientes son seres con conciencia, sensibilidad,

La mayoría de los budistas que conozco después de practicar por un tiempo harán todo lo posible para preseleccionar cualquier fuerza vital, incluidos animales e insectos. se considerará igualmente importante mucho más tarde a medida que acumulemos conocimiento, seguramente nuestra compasión crecerá a medida que la raza humana madure . En cuanto a sus preguntas sobre robots que por ahora colocaré en la misma categoría del futuro aprendizaje humano acumulado.

Bueno, hay puntos bastante buenos contra el argumento de la sensibilidad y el argumento de la inteligencia e incluso contra el argumento del libre albedrío.
(1. Podría matarlo sin dolor 2. … ¿y? 3. El libre albedrío no existe de todos modos)

Entonces … en caso de duda recurrir a Kant.

Su imperativo categórico, para ser exactos.

Actúa solo de acuerdo con esa máxima por la cual puedes, al mismo tiempo, que se convierta en una ley universal.

¿Crees que debería convertirse en una ley universal que los seres humanos puedan ser asesinados de todas formas? Recuerde que la ley sería verdaderamente universal, es decir, también se aplicaría a * usted * ser asesinado. ¿Crees que estaría bien? Si es así … bueno … entonces nada inmoral al respecto. Si no (y la mayoría de la humanidad vota “no”, de ahí todas las leyes en contra), entonces es inmoral.


La pregunta que surge de esto es “¿por qué parar en ‘ser humano’ como condición para no ser asesinado”?

Y la respuesta a eso es, algo deprimente: “porque otros humanos son lo único que realmente puede cometer asesinatos en una escala notable”. Todas las demás especies del planeta carecen de cerebro para el genocidio.

Pero eso cambiaría repentinamente si hubiera una especie, ya sean extraterrestres, robots o inteligencias sintéticas incorpóreas, que nos igualarían o superarían en ese departamento. Entonces, muy claramente, nos gustaría ser incluidos en la calificación que nos hace “lo suficientemente” como para caer bajo la protección del imperativo categórico. Y esa calidad probablemente sería “inteligencia”.

… excepto si nos superan masivamente en ese departamento (piense hormigas para los humanos), entonces realmente, realmente, realmente querríamos que consideraran la calificación de “sensibilidad” lo suficiente como para no ser asesinados.


Entonces, en resumen, matar humanos / especies inteligentes / especies inteligentes está mal porque no querrías estar del otro lado del cuchillo si las cosas se cambiaran de alguna manera.

Queda por demostrar objetivamente que los “robots” son agentes morales.

Nunca se ha demostrado objetivamente que la sensibilidad de los animales equivale a una demostración de que los animales son agentes morales.

No hay evidencia científica que demuestre que los animales se hayan vuelto inteligentes.

Para avanzar en este punto de vista, sería necesario mostrar de hecho que la inteligencia existe.

Finalmente, se debe demostrar que la sensibilidad existe como una propiedad moral.

Porque la gente lo hizo inmoral con sus emociones y sentimientos. Es por eso que hay tantas cosas que se consideran inmorales. Emociones y sentimientos. No ciencia, hecho o razón. Es otro ejemplo más de personas que ‘piensan’ con emociones y sentimientos, en lugar de razón. Sin embargo, no me parece inmoral.

Interesante pregunta. ¿Quizás es que somos racionales y sensibles?

Tiene más que ver con el hecho de que sentimos dolor y empatizamos con otros que sienten dolor. La mayoría de las personas pueden sentir empatía con ciertos animales con dolor, por lo que parece inmoral torturar a una mascota doméstica o probar químicos tóxicos en cachorros.

Matar a alguien de una manera no dolorosa todavía se considera inmoral porque probablemente causará un profundo dolor emocional a las personas que la conocen.

Supongo que si construimos robots que puedan sentir dolor con los que podemos empatizar, o robots con los que nos apegamos emocionalmente y que no podemos reemplazar, sería inmoral destruirlos.

¿Cuál sería TU respuesta si estuvieras atado con cuerdas y cadenas en el piso, mientras dos hombres muy borrachos y viciosos afilando cuchillos muy grandes mientras te miraban, te hacían la misma pregunta?

Si algo es voluntario, evitable, entonces no puede ser estrictamente inmoral (merece el castigo más severo). Ser asesinado no es voluntario. Entonces es probable que sea inmoral, pero ¿por qué exactamente? Porque nunca, nunca puede ser algo bueno. Ser asesinado es inevitable. Y así es como sabes por qué las cosas inevitables son inmorales. Puede evaluarlo por el método de Comportamiento preferible universalmente. Aquí hay un gran artículo al respecto.

Comportamiento universalmente preferible: una prueba racional de ética secular

La evaluación tiene dos pasos. Estamos preguntando, ¿puede X convertirse en una regla moral? (digamos robar o matar, matarás)

– Si hay un chico en coma, ¿está equivocado porque no está haciendo X? Si es así, entonces no tiene sentido.

Por ejemplo, un hombre en coma no puede pagar impuestos, no pagar impuestos es malo, el hombre en coma es malo y debe ser encarcelado, lo que no tiene sentido.

Para el segundo paso debes aceptar el principio de identidad: una cosa no puede ser X y lo opuesto a X al mismo tiempo. Eso es normal, por ejemplo, un cubo de azúcar es un cubo de azúcar y no puede ser una jirafa rosa al mismo tiempo. Eso es imposible.

– Digamos que hay dos chicos en una habitación. Uno hace X, ¿se requiere que el otro sea el opuesto de X? Digamos que estamos preguntando, “¿es moral el robo?”. Probémoslo. Si un hombre en una habitación es un ladrón, el otro debe ser una víctima, que es lo contrario de un ladrón. No estoy diciendo si X o lo opuesto a X es bueno o malo, pero si hay un opuesto, entonces uno de ellos debe ser malo. Y si la mitad de las personas en la sala son malvadas, entonces no puede ser una ley moral universal, por lo tanto, no tiene sentido.

No es ético dañar lo que es consciente del dolor y matar lo que es consciente de que está vivo. Quien daña a un ser que es consciente del dolor renuncia a sus propios derechos y vive fuera de la ética. Quien vive fuera de la ética ya no está protegido por la ética.

Por lo tanto, no es poco ético defenderse o ejecutar a un asesino.

Si un robot era consciente del dolor y sabía que estaba vivo, no sería ético matarlo. Sin embargo, la dificultad radica en demostrar si el robot es realmente consciente o no.