« Une suspension mystérieuse | Accueil | Mise à jour de CheckPoint »

23 octobre 2005

Les armées robotiques

On peut lire depuis jeudi sur Le Monde un article assez détaillé sur les prototypes et les projets de robots au sein de l'US Army. Le ton plutôt alarmant de l'auteur ne l'empêche pas de cerner une bonne partie des questions liées au développement d'engins terrestres autonomes, remplissant des fonctions de combat, d'appui au combat et de logistique. Extraits :

Bob Quinn, directeur de la société Foster-Miller, qui fabrique des mini-tanks télécommandés, imagine déjà le passage au stade suivant, après 2030 : "Techniquement, l'intervention humaine au moment de la décision de tirer ne sera plus nécessaire. Le problème sera plutôt d'ordre éthique, ou politique. Les officiers actuels se disent hostiles à l'idée de voir un robot prendre l'initiative de tuer un humain, mais la prochaine génération aura peut-être une vision différente. Si, dans trente ans, l'armée américaine se retrouve embourbée dans une guerre meurtrière et incertaine, l'intervention humaine dans la décision de faire feu sera peut-être considérée comme une perte de temps."
[...]
Pour communiquer avec les humains, les robots devront envoyer des sons et des images. Ils auront donc besoin de réseaux à haut débit, lourds, complexes et vulnérables. Mais pour communiquer entre eux, ils utiliseront des codes informatiques très légers, et se contenteront de réseaux à bas débit, souples, faciles à installer et presque indétectables. Pour résoudre le problème du réseau, il suffirait en théorie d'augmenter au maximum l'autonomie des robots et diminuer autant que possible la supervision humaine. Cela dit, un problème inédit pourrait alors surgir : les humains ignoreraient la teneur des messages échangés entre robots en temps réel.

La problématique de l'automatisation est celle qui m'interpelle le plus, en raison des aspects éthiques, cognitifs et techniques qu'elle comporte. De manière générale, les armées - entre autres - tendent à automatiser les actions qui supposent une rapidité, une endurance et/ou un risque trop élevés pour un être humain. Il existe cependant une différence fondamentale entre une arme dite intelligente, comme un missile autodirecteur ou une bombe guidée, et un système d'armes entièrement autonome : la première se contente d'accomplir une action ordonnée, alors que le second effectue lui-même un processus décisionnel complet. Tout comme un être humain.

Les principaux exemples de systèmes autonomes sont aujourd'hui des dispositifs de protection. Le système Aegis développé par la marine américaine voici plus de 30 ans est une bonne illustration : il s'agit d'un dispositif de protection automatique, capable de détecter des menaces grâce à un radar puissant et de les combattre, selon la situation, par des missiles antimissiles ou des obus tirés à haute cadence. Conçu pour protéger les flottes US contre les missiles antinavires largués en rafale par les bombardiers du Pacte de Varsovie, l'Aegis contourne l'intervention humaine pour gagner en rapidité et en précision.

A une échelle plus réduite, des dispositifs de protection en partie comparables existent au niveau terrestre. Des systèmes sont en effet développés pour protéger des véhicules blindés contre des projectiles en approche ou pour protéger des troupes débarquées contre des tireurs d'élite. Dans des réflexions prospectives écrites voici quelques années, j'ai moi-même lancé l'idée d'un Aegis terrestre, c'est-à -dire d'un véhicule capable de fournir dans un espace limité les mêmes capacités de protection qu'un navire Aegis pour une flotte donnée, en détectant et en combattant automatiquement toutes les menaces conventionnelles. La polyvalence sans cesse accrue des plateformes et la disparition des lignes de front nous y amènent probablement.

En revanche, cette perspective dissimule une réalité menaçante : il n'est pas très difficile de transformer une telle capacité défensive en un dispositif purement offensif. L'informatique de bord des avions et hélicoptères de combat modernes est déjà équipée pour détecter un grand nombre de cibles, les classer par ordre de priorité et en proposer le traitement à l'équipage ; les drones de combat seront immanquablement capables de remplacer ce dernier également sur le plan décisionnel, et donc de procéder de manière autonome à des actions offensives. Et comme les ordinateurs restent désespérément médiocres pour traiter des valeurs subjectives et non quantifiables, voici qui laisse augurer des dommages collatéraux en cascade.

Une solution opérationnelle consisterait à définir, lors de la planification d'une opération de combat, les secteurs dans lesquels les robots peuvent être utilisés sans restriction et ceux où les commandants tactiques conservent en permanence leur liberté de décision. On pourrait ainsi imaginer des cartes électroniques distribuées à toutes les troupes, et dans lesquelles apparaissent les zones sous contrôle robotique et celles sous contrôle humain. Aujourd'hui déjà , les réseaux de commandement permettent de définir par exemple des secteurs de feu dans lesquels les troupes amies feraient bien de ne pas s'égarer. Avec l'introduction des robots d'attaque, il s'agirait de distinguer encore plus clairement les zones de destruction (usage maximal de la force) et les zones de contrôle.

L'époque des Terminator n'est pas si éloignée que cela...

Publié par Ludovic Monnerat le 23 octobre 2005 à 10:02

Commentaires

L'idée de différencer les zones sous contrôle robotique des zones sous contrôle humain est intéressante.

Il me parait en effet douteux d'imaginer qu'un robot puisse être capable de différencier efficacement un civil d'un ennemi. Les soldats alliés peuvent bien sûr être dotés d'équipements d'identification automatique mais la fiabilité de ces dispositifs reste à établir.

En dehors des choix éthiques et opérationnels, il semble évident que les investissements en matière d'idenfitication de signatures (acoustique, sismique, radar, infrarouge, etc.) doivent être considérablement augmentés pour permettre de concevoir des matériels autonomes. L'utilisation des signatures acoustiques est extrêmement importante, principalement pour l'identification des véhicules, et certaines mines utilisent déjà une identification uniquement acoustique et sismique pour déterminer si oui ou non une cible doit être attaquée.
Il serait également intéressant d'étudier plus en profondeur quelles techniques l'ennemi peut utiliser pour modifier ou camoufler ses différentes signatures.

Publié par Mugon le 23 octobre 2005 à 14:01

"Eeeep beeep peeek sweeepp liooop liooop"

Publié par R2D2 le 23 octobre 2005 à 21:53

La robotique intelligente risque d'ouvrir la porte à la production de Chimères comme la technologie a provoqué le kamikaze ou l'opération d'attaques kamikazes. Je vois les images d'hommes singes attaquer des robots et derrières leurs consoles de vieux militaires ventripotents... je pense que je divague, votre billet est un peu hard ! ;-)

Publié par Yves-Marie SENAMAUD le 23 octobre 2005 à 23:05

Publié par Yves-Marie SENAMAUD le 23 octobre 2005 à 23:12

Pour le dernier lien, vous avez des précisions, je ne comprent le sanscrti ;)

Il s'agit d'un robot de lutte contre les incendies ?

Publié par Frédéric le 24 octobre 2005 à 11:18

Fort heureusement, il s'agit de machines qui malgré leur invincibilité restent vulnérables. Il suffit de regarder l'évolution de l'informatique pour constater que plus les systèmes sont performants et super-sécurisés, plus il y a d'attaques et plus il y a de vulnérabilités.

Un système automatisé quel qu'il soit reste sensible à des facteurs externes tels que les ondes magnétiques non-maîtrisées (orages, turbulences, lignes à haute tension, etc.) ou maîtrisées (NEMP, canons à micro-ondes, brouilleurs de fréquence). La plupart de ces facteurs se comportent de manière aléatoires ne répondent pas à des logiques reproductibles (il n'y a pas deux orages similaires).

Je suis d'accord avec Ludovic concernant le problème éthique que pose une prise de décision automatisée, sans intervention humaine. Seriez-vous prêt à monter dans un « avion de ligne-robot » sans pilote ?

La capacité de traitement des données soulève l'intégration sur les capacités opérationnelles nécessaires à faire fonctionner ces engins, tant au niveau des réseaux de communication que des centres de traitement. Il faudra des puissances de calcules phénoménales pour compulser et analyser les informations avant de les injecter dans une base de données et les rendre disponibles pour un processus décisionnel. L'ensemble nécessaire au bon fonctionnement deviendra alors d'une telle complexité qu'il sera difficile de maîtriser à large échelle.

De la même manière que l'informatique a modifié fondamentalement nos vies, nous oblige à repenser le quotidien, les armes robotisées et (semi-)intelligentes nous forceront à définir des règles d'engagement très strictes, des cadres d'intervention définis et des mesures de contrôles permanentes.

Publié par Daniel Mangold le 24 octobre 2005 à 14:38

Un engin blindé, équipé d'armes automatiques, et d'un canon de calibre moyen pourrait sécuriser un périmètre et empêcher le passage d'humains.

Solution intéressante en combat urbain, à condition que ce robot reste contrôlable par les unités sur place. Il faut aussi prévoir un système de neutralisation de l'engin, afin d'éviter que l'ennemi n'en prenne le contrôle...

Que de perspectives. Les assauts sur des positions défendues par des fanatiques se ficahnt de la mort,la garde d'une position défensive, les tours de garde nocturnes...

Publié par Ares le 24 octobre 2005 à 15:45

Pour Daniel : entièrement d'accord avec la nécessité de "définir des règles d'engagement très strictes, des cadres d'intervention définis et des mesures de contrôles permanentes" dès que l'on emploie des systèmes d'armes robotiques. En même temps, exploiter pleinement les possibilités - encore théoriques, certes - de tels systèmes exige quelque part de faire l'inverse, de laisser librement s'exprimer le potentiel d'attrition de robots combattants. Il s'agira donc de trouver un équilibre, et la partition du secteur d'engagement me paraît un moyen dans ce sens. Il y en a d'autres. Maintenant, est-ce que le problème de la puissance de calcul ne peut pas être résolu par l'interconnexion des plate-formes? Je ne vois pas ce problème comme étant aussi aigu.

Pour Arès : cette notion de robots faisant face aux fanatiques est intéressante. Elle a déjà été soulevée en novembre 2002, lorsqu'un drone Predator de la CIA (certes semi-automatique) a tiré au Yemen un missile Hellfire sur le véhicule transportant un leader d'Al-Qaïda. Algorithmes contre islamistes, voilà un contraste plutôt saisissant ! Surtout lorsque l'histoire montre que la puissance de feu peut venir à bout de la volonté la plus tranchée (doctrine française de 1914 de l'offensive à outrance, aboutissant à des hécatombes ; charges banzai des soldats nippons durant le SGM, etc.)

Publié par Ludovic Monnerat le 24 octobre 2005 à 16:39

Ceux qui auraient de bonnes raisons immédiates d'installer des dispositifs de riposte automatique sont les Israéliens, confrontés aux tirs de fusées Qassam. Ils n'ont pas encore franchi le pas!

Publié par Hunden le 24 octobre 2005 à 22:57

« Maintenant, est-ce que le problème de la puissance de calcul ne peut pas être résolu par l'interconnexion des plate-formes? Je ne vois pas ce problème comme étant aussi aigu. »

Malheureusement, les algorithmes relativement complexes sont rarement parallèlisables (les supers-ordinateurs météo/cryptographiques par exemple effectuent des opérations relativement simples du type calcul mathématique qui malgré leur « simplicité » sont déjà très dur à porter sur ces architectures distribuées).

Pour ce qui d'obtenir des gains en dédiant un processeur à une tache particulière (vue, prise de décision, contrôle du feux, etc.) ce n'est jamais très efficace (on divise par un entier relativement faible le temps de « calcul » d'algorithmes qui ont des complexités qui est exprimé en puissance x (très grand) par rapport aux informations d'entrée : le gain est limité, autant attendre 18 mois la nouvelle génération de processeurs à ce rythme...). Ceci dit, la puissance des ordinateurs actuels est quand même considérable, et il me semble que la faiblesse est justement du coté des algorithmes de perception/prise de décision. C'est un petit peu mon domaine (académique du moins), et pour l'instant, l'état de l'art relève du bricolage comparé à d'autre spécialités, j'attendrais volontiers une révolution technique dans ce domaine avant de mettre ma vie entre les mains d'un tel logiciel...

Publié par nobody le 24 octobre 2005 à 23:46

En fait, je ne pensais pas forcément à une sorte de connexion rigide avec partage des tâches entre différents ordinateurs, mais plutôt une structure en source ouverte où les informations viennent automatiquement s'ajouter, se compléter, se corréler. Bref, un réseau informel avec des plate-formes en essaim venant se connecter régulièrement ou durablement en fonction de leur mission principale.

Publié par Ludovic Monnerat le 25 octobre 2005 à 9:01