"À primeira vista, o objetivo parece bastante simples - criar uma IA que se comporte de uma forma eticamente responsável; no entanto, é muito mais complicado do que parece inicialmente, pois há uma quantidade incrível de factores que entram em jogo. Tal como o projeto de Conitzer descreve, "os juízos morais são afectados por direitos (como a privacidade), papéis (como nas famílias), acções passadas (como promessas), motivos e intenções e outras características moralmente relevantes. Estes diversos factores ainda não foram integrados nos sistemas de IA".
A evolução da IA: A moralidade pode ser programada? - FLI - Instituto Futuro da Vida
https://futureoflife.org/2016/07/06/evolution-of-ai/
via Instapaper