"A primera vista, el objetivo parece sencillo: crear una IA que se comporte de forma éticamente responsable; sin embargo, es mucho más complicado de lo que parece en un principio, ya que hay una cantidad asombrosa de factores que entran en juego. Como señala el proyecto de Conitzer, "los juicios morales se ven afectados por derechos (como la privacidad), roles (como en las familias), acciones pasadas (como las promesas), motivos e intenciones, y otras características moralmente relevantes". Estos diversos factores aún no se han incorporado a los sistemas de IA"".
La evolución de la IA: ¿Puede programarse la moralidad? - FLI - Instituto del Futuro de la Vida
https://futureoflife.org/2016/07/06/evolution-of-ai/
vía Instapaper