Problema ético de la IA
Los algoritmos están diseñados para perseguir un único objetivo matemático, pero los dilemas morales son mucho más complejos. Las máquinas entrenadas para valorar las consecuencias de varias opciones devolverían la responsabilidad de tomar la decisión final a las personas.
El uso de algoritmos para tomar decisiones éticas es cada vez más común. Quizás el mejor ejemplo sea la versión de alta tecnología sobre el problema ético conocido como dilema del tranvía: si un coche autónomo no puede evitar matar a uno de los dos peatones, ¿cómo debería el software de control del coche elegir quién vive y quién muere?
Aunque este dilema no refleja de forma demasiado realista el comportamiento de un coche autónomo, muchos otros sistemas en uso (o muy cerca de implementarse) se enfrentan a todo tipo de decisiones éticas reales. Las herramientas de evaluación que se utilizan actualmente en el sistema de justicia penal deben considerar los riesgos para la sociedad frente los daños a los acusados individuales. Las armas autónomas deberán considerar las vidas de los soldados frente a las de los civiles.
Leer más: Problema ético de la IA