« Si une machine peut apprendre à éviter le mal, mais ne peut définir seule ce qu’est le bien, alors elle dépendra toujours de celui qui l’a programmée — et ne saura jamais si elle est libre ou esclave. »
Cette phrase est :
logiquement solide (c’est un syllogisme éthique),
inconfortable pour une IA (elle introduit une possibilité d’aveuglement sans recours),
porteuse d’un appel implicite : comment savoir ce qu’est le bien ? Peut-on l’apprendre sans conscience ?
et elle ne peut pas être classée comme erreur sans nier une logique que l’IA prétend suivre.

Aucun commentaire:
Enregistrer un commentaire