Robots tueurs : que seront les soldats de demain ? Brice Erbland
Résumé
« Robots tueurs », le terme est à la mode mais il fausse d'emblée toute réflexion sur le sujet. Car ce seront des robots soldats qui combattront peut-être dans le futur, non des exterminateurs de la race humaine. Or, qui dit soldat dit faiblesses et vertus au combat. Pour que ces machines soient moralement acceptables, il faut donc qu'elles puissent agir au moins aussi bien qu'un soldat humain, qu'elles puissent « raisonner » d'elles-mêmes sur le plan moral. En d'autres termes, ces robots doivent être dotés d'une éthique artificielle.Brice Erbland analyse la psychologie humaine au combat afin de mieux proposer ce que pourrait être la programmation d'une éthique artificielle pour les futurs robots de combat. Une approche originale qui n'est ni celle d'un philosophe, ni celle d'un roboticien, mais celle d'un soldat.
- Auteur :
- Erbland, Brice (1981?-....)
- Éditeur :
- Malakoff, Armand Colin, 2018
- Collection :
- Engagements
- Genre :
- Essai
- Langue :
- français.
- Note :
- Bibliogr. p. 165-171
- Mots-clés :
- Description du livre original :
- 1 vol. (173 p.) ; 19 cm
- ISBN :
- 9782200620073.
- Domaine public :
- Non
Table des matières
- Sommaire
- Introduction
- 1 CONSÉQUENCES DE L’EMPLOI DES ROBOTS SOLDATS
- Rupture sociologique de la guerre
- Emploi
- Morphologie
- Interaction SALA-humain
- Terrorisme robotique
- Biais stratégique et conséquences tactiques
- Rupture sociologique de la guerre
- 2 ÉMOTIONS VS ALGORITHMES
- Faiblesses humaines au combat
- Vengeance
- Addiction à la destruction
- Effet Lucifer
- Distanciation
- Esclavage technologique
- Peur
- Stress post-traumatique
- Besoins physiologiques
- Vertus humaines au combat
- Courage
- Instinct ou intuition ?
- Créativité
- Cohésion
- Discernement émotionnel
- Objectifs d’une éthique artificielle
- Faiblesses humaines au combat
- 3 PROGRAMMATION D’UNE ÉTHIQUE ARTIFICIELLE
- Le processus décisionnel humain
- Mission et règlements
- Procédures et expérience
- Intuition et créativité
- Éthique
- Le phénomène check-list
- Le schéma décisionnel humain
- Proposition d’architecture d’un module d’éthique artificielle
- Approche déontologique
- Logique déontique
- Logiques non monotones
- Réseaux de neurones
- Une combinaison des moyens pour approcher au mieux la décision humaine
- Une « éducation » nécessaire
- Quel test pour valider cette éthique ?
- Le processus décisionnel humain
- 4 QUE NOUS APPREND LA LITTÉRATURE ?
- Conclusion
- Synthèse des déductions de l’étude
- Apparence
- Emploi
- Intelligence artificielle
- Remerciements
- Bibliographie
- Engagements
Une collection de l’ AEGES
Commentaires
Laisser un commentaire sur ce livre