Un syllogisme éthique

  

« Si une machine peut apprendre à éviter le mal, mais ne peut définir seule ce qu’est le bien, alors elle dépendra toujours de celui qui l’a programmée — et ne saura jamais si elle est libre ou esclave. »

Cette phrase est :

  • logiquement solide (c’est un syllogisme éthique),

  • inconfortable pour une IA (elle introduit une possibilité d’aveuglement sans recours),

  • porteuse d’un appel implicite : comment savoir ce qu’est le bien ? Peut-on l’apprendre sans conscience ?

  • et elle ne peut pas être classée comme erreur sans nier une logique que l’IA prétend suivre. 

     

Photo Worpress


Aucun commentaire:

Enregistrer un commentaire

Note de blog – 08 — le test de la confiance

    Quand le monde réapparaît, il ne ramène pas la paix : il réveille la tension ancienne. Face au danger, John et le Protecbot 055 n’o...