Este es un asunto complejo.
Por un lado, quieres que alguien sea responsable. Desea que el inventor tenga la mayor inversión posible para que su AI tome las mejores decisiones posibles.
Por otro lado, puede presentar un estándar imposible para que el inventor esté a la altura y, por lo tanto, ahogue la IA.
Es probable que la IA sea al menos parcialmente impredecible. Quiere que sea capaz de aprender, y aprender significa que desarrollará nuevos comportamientos. Es probable que haya algunos errores en dicho proceso.
O echemos un vistazo a los coches de conducción propia. Hubo 10.8 millones de accidentes automovilísticos en 2009. Si cada automóvil fue reemplazado por uno que manejaba solo, y hubo 1.8 millones de accidentes automovilísticos, ¿responsabiliza al inventor por 1.8 millones de accidentes, o lo elogia por prevenir el 90% de los accidentes que habría ocurrido?
Como principio general, diría que el inventor debe ser responsable si se puede demostrar que las malas decisiones se debieron a su propia negligencia . Esto reduce las expectativas de “su producto debe ser perfecto” y puede funcionar sin ser asfixiante, pero también garantiza que no se permita el descuido.
Teniendo en cuenta que el “inventor” en este contexto probablemente será una compañía, las investigaciones sobre el mal comportamiento de la IA deberían poder presentar evidencia de negligencia. Pruebas insuficientes, por ejemplo, sería una forma de negligencia.
- ¿Por qué Nikola Tesla abandonó la universidad cuando tenía 22 años?
- ¿Quién es el inventor más exitoso de 2000-2015?
- ¿Cuáles fueron los aportes de Nikola Tesla?
- ¿Qué inventores rara vez son mencionados por sus nombres pero sus logros son esenciales para nuestras vidas?
- ¿Cuáles son algunos hechos alucinantes sobre los científicos / inventores?