"À première vue, l'objectif semble assez simple : créer une IA dont le comportement est éthiquement responsable. Cependant, c'est beaucoup plus compliqué qu'il n'y paraît, car une quantité incroyable de facteurs entrent en jeu. Comme le souligne le projet de Conitzer, "les jugements moraux sont influencés par les droits (tels que la vie privée), les rôles (tels que dans les familles), les actions passées (telles que les promesses), les motifs et les intentions, ainsi que d'autres caractéristiques moralement pertinentes". Ces divers facteurs n'ont pas encore été intégrés dans les systèmes d'IA"".
L'évolution de l'IA : la moralité peut-elle être programmée ? - FLI - Future of Life Institute (Institut du futur de la vie)
https://futureoflife.org/2016/07/06/evolution-of-ai/
via Instapaper