Réflexions sur la robotique militaire

Réflexions sur la robotique militaire

Notions « d’intelligence » et de « conscience » des robots ? Quelles sont leurs applications militaires ?

La communication « Réflexions sur la robotique militaire » s’inscrit dans le cadre des réflexions du groupe de travail « Vers une technologie de la conscience » de l’Académie des technologies. Elle fait suite à une première communication consacrée, pour une grande part, à l’examen des notions « d’intelligence » et de « conscience » des robots. Elle se penche, dans ce second volet, sur leurs applications militaires, en faisant une large part aux difficiles questions d’éthique que pose cet usage, ainsi qu’aux aspects juridiques.

Les robots militaires existent et sont de plus en plus utilisés, sur différents théâtres d’opérations et dans les différents milieux : air (drones), mer, terre, et peut-être bientôt espace. Leur marché est en forte croissance.

L’Académie des technologies relève quatre aspects prioritaires à prendre en compte, qui sont autant de mises en garde pour les différents acteurs à tous les niveaux – politiques, acteurs de l’armement, utilisateurs.

1. Réduire l’imprévisibilité du robot militaire

Les robots militaires pourront être dotés d’une grande autonomie (d’action), y compris pour l’ouverture du feu. Leur complexité peut conduire à une certaine imprévisibilité, responsable d’inadmissibles « bavures ».

Il est donc essentiel de bien maîtriser la mise en œuvre de ces robots, à tous les niveaux, depuis la décision politique de développement de l’arme jusqu’à l’utilisation opérationnelle. Il y va de la responsabilité des différents acteurs, et les aspects juridiques sont importants.

2. Garder le sens des responsabilités, malgré la facilité d’emploi

Employés pour l’observation, la reconnaissance, le déminage, voire le tir (par exemple : drones armés), les robots militaires présentent l’avantage d’éloigner le servant du champ de bataille, de réduire ainsi les pertes amies et d’être généralement récupérables. Dès lors, leur facilité d’emploi, associée à une certaine « invulnérabilité » du servant liée à l’éloignement, peut entraîner des excès de violence : on parle de joy-stick war pour une guerre assimilable à un jeu vidéo !

Pour l’instant, la « responsabilité » du robot lui-même est considérée comme inexistante, mais l’idée que l’on s’en fait pourrait être amenée à évoluer. L’emploi généralisé des robots pourrait conduire à une révision de la convention de Genève.

3. Maîtriser la situation, face à une complexification croissante.

Le danger particulier qui guette les acteurs de l’armement dans le domaine des robots est celui d’être dépassés par les conséquences non voulues de la complexification des systèmes robotisés. Aucun système informatique, rendu très complexe par la multiplicité de ses capteurs et de ses logiciels, n’est à coup sûr exempt de tout défaut. Il est donc indispensable que l’utilisateur puisse conserver in fine la maîtrise de son armement.

4. Tenir compte de l’empathie

Des fonctionnalités de la conscience humaine sont bien déjà présentes chez le robot militaire. Certaines méritent d’être développées, par exemple celle de la représentation précise de l’environnement (matériel et humain), notamment de l’identification rigoureuse des cibles, afin d’éviter au maximum les « bavures ». La prise en considération de la notion d’empathie est également essentielle, avec la perspective (lointaine) de développement d’une certaine capacité d’empathie chez le robot, mais aussi du point de vue de l’effort à faire par les armées occidentales pour s’attirer le soutien des populations locales en limitant l’utilisation des robots réputés « déshumanisés », ou des relations nouvelles créées entre combattants et robots engagés sur un même champ d’opérations.


PrécédentAccueilSuivantPartager