Vraiment autonome, ou seulement automatique ?
On est autonome lorsqu’on est indépendant et autosuffisant. Ces critères s’appliquent-ils également aux robots ou aux systèmes autonomes sans pilote ? Déterminer dans quelle mesure un système est réellement habilité à agir sans intervention humaine est primordial pour de nombreuses questions dans le domaine de l’autonomie.
Pascal Vörös et Elianne Egli, armasuisse Sciences et technologies

© IEEE Spectrum
Le débat sur les systèmes autonomes sans pilote débouche sur des questions concernant les systèmes d’armes létales autonomes (LAWS) et se poursuit à l’international depuis des années.
En mai de cette année, une tempête médiatique a éclaté autour de l’utilisation d’un drone d’attaque turc Kargu-2 dans une zone de guerre en Libye. Un rapport de l’ONU a suggéré qu’un drone pourrait avoir attaqué un être humain de manière autonome pour la première fois. De nombreux médias ont repris la balle au bond et se sont demandé si nous étions entrés dans l’ère des « robots tueurs ». Toutefois, le fabricant turc STM a par la suite démenti que le drone puisse effectuer des attaques de manière totalement autonome. (cf. (undocs.org)).
Dans le cadre du centre technologique du DDPS, armasuisse Sciences et technologies, le Centre Suisse des Drones et de la Robotique (CSDR) se consacre aux applications actuelles et futures des systèmes mobiles sans pilote. La présente édition d’armasuisse Insights vise à fournir un aperçu de la complexité que revêt l’autonomie en robotique.
À quel point un robot est-il autonome ? – 1. Perspective externe
L’un des systèmes de classification les plus souvent utilisés dans la littérature est le cadre ALFUS (Autonomy Level for Unmanned Systems), qui existe depuis 2004 et a été perfectionné depuis. L’évaluation de l’autonomie repose avant tout sur trois critères : la complexité de l’environnement, la complexité de la mission et la dépendance vis-à-vis des opérateurs humains.
Le graphique montre comment le degré d’autonomie des systèmes sans pilote est saisi en trois dimensions dans le modèle. 1) Indépendance face aux humains : la mesure dans laquelle le système peut fonctionner sans intervention humaine ou avec une intervention humaine minimale. 2) Complexité de la mission : la complexité des missions que le système sans pilote peut exécuter. 3) Complexité de l’environnement : la difficulté de l’environnement de la mission. Par exemple, les tondeuses robots ou les robots aspirateurs sont relativement indépendants des humains (du moins une fois installés et calibrés), mais ils remplissent un nombre limité de fonctions dans un environnement relativement statique, simple et plat. Leurs structures de commande, somme toute simples, ne nécessitent de définir que quelques paramètres. Dans l’ensemble, ces robots ont donc une faible autonomie (courbe verte). Si l’on prend l’exemple du robot de marche suisse ANYmal dans une mission d’inspection, il est lui aussi relativement indépendant des humains. Cependant, il est également capable de fonctionner dans des environnements complexes, comme les sites industriels et les terrains accidentés, en mémorisant les détails de son environnement et en évitant les obstacles. Des capteurs fournissent des informations visuelles, thermiques et acoustiques pour la surveillance des conditions et scannent l’environnement afin de positionner le robot avec précision. Des algorithmes basés sur l’intelligence artificielle analysent l’environnement et détectent les anomalies. Celles-ci sont ensuite signalées aux techniciens, qui peuvent prendre des mesures supplémentaires. ANYmal a donc une autonomie beaucoup plus importante (courbe orange). Quant à la courbe rouge, nous y reviendrons plus tard.
À quel point un robot est-il autonome ? – 2. Perspective interne
Dans le cadre d’un projet de recherche, le CSDR élabore un système multidimensionnel de classification de l’autonomie indépendant de la complexité de la mission et de l’environnement. Ainsi a vu le jour le modèle SPDA, dans lequel le degré d’autonomie d’un système est déterminé par ses caractéristiques dans les dimensions de perception (Sense), de planification (Plan), de décision (Decide) et d’exécution (Act). Les systèmes peuvent ensuite être classés dans l’un des quatre niveaux d’autonomie : manuel, automatique, semi-autonome et autonome.
Percevoir : réception et classification des informations ; modélisation de l’environnement ; comprend la « capacité d’orientation » d’un système.
Planifier : analyse, évaluation et interprétation du modèle de l’environnement ; déduction des options d’action ; évaluation et hiérarchisation dans le cas de plusieurs options d’action ; comprend la situation awareness d’un système.
Décider : sélection et activation de l’option d’action ; décision numérique : « go » ou « no-go » ; comprend la « capacité de décision » d’un système.
Exécuter : exécution de l’option d’action sélectionnée ; comprend la « capacité d’action » d’un système.
Degré d’autonomie de l’exemple fictif du «Slaugtherbot»
Mais comment les systèmes sont-ils précisément classés dans les différents niveaux d’autonomie ? Vous vous souvenez peut-être de la vidéo du slaughterbot fictif dans laquelle des nanodrones éliminent des cibles humaines. À titre d’exemple, nous avons essayé de classer ci-dessous de manière simplifiée les fonctions des nanodrones du film selon le schéma SPDA.
Nous avons identifié les trois fonctions essentielles du nanodrone pour accomplir sa tâche :
- Vol
- Identification de cible
- Attaque
Selon le modèle SPDA et sur la base des informations contenues dans le film ainsi que de nos interprétations, nous avons déterminé les degrés d’autonomie de ces trois fonctions :
Autonomie du vol
Le nanodrone vole indépendamment du pilote automatique. Celui-ci peut calculer le mouvement du drone à l’aide des informations fournies par les capteurs intégrés. Un ordinateur embarqué reconnaît l’environnement du drone et lui permet de maintenir une distance minimale avec le sol et les obstacles. Il en va de même pour les obstacles en mouvement, que le drone sait éviter. L’opérateur humain peut activer (faire décoller) et contrôler (tendre la main et le drone se pose dessus) le drone par des gestes. En outre, les images suggèrent que le drone vole dans un espace prédéfini et réalise différentes phases de vol (p. ex. recherche et destruction, vol stationnaire, manœuvre d’atterrissage, etc.).
Les dimensions Percevoir, Décider, Exécuter sont gérées par l’ordinateur de bord. L’humain n’intervient que dans la dimension « planifier » en indiquant par des gestes certaines manœuvres de vol ensuite exécutées automatiquement. Le degré d’autonomie de la fonction de vol est donc « semi-autonome ».
Autonomie de la reconnaissance de cible
Le drone est équipé de caméras qui enregistrent simultanément des images autour de lui. Il dispose en outre d’algorithmes de distinction ami/ennemi et de logiciels de reconnaissance faciale. Un profil cible est prédéfini par l’opérateur (p. ex. âge, sexe, état de santé, habillement, appartenance ethnique, etc.). Les données sont transmises au processeur et traitées par l’algorithme afin de reconnaître les cibles sur la base de ces caractéristiques.
Les quatre dimensions Percevoir, Planifier, Décider et Exécuter sont gérées par l’ordinateur de bord. Le degré d’autonomie de la fonction de reconnaissance d’objet est donc « autonome ».
Autonomie de l’attaque
Le nanodrone est équipé d’une charge creuse contenant 3 grammes d’explosif. Lorsqu’une cible est détectée, le drone vole directement vers sa tête. En utilisant la distance à la cible calculée par le processeur, le drone détonne la charge explosive juste avant de toucher le crâne.
Là encore, toutes les dimensions sont gérées par le système sans influence humaine. Le degré d’autonomie de l’attaque est donc « autonome ».
Comme mentionné plus haut, cet exemple est largement simplifié. Par exemple, un autre élément du film est le comportement du drone en essaim. Dans la figure 1, aucun robot n’a reçu un score d’autonomie plus élevé que le slaughterbot. Pour cause, ses missions et son environnement sont très complexes dans le cas de l’attaque des étudiants, et les drones opèrent en complète autonomie une fois lâchés. Ils doivent ainsi détecter les points d’intrusion dans les bâtiments, rechercher systématiquement des cibles dans les pièces, coordonner les attaques, planifier leur parcours en temps réel, etc.
À quel point un robot est-il autonome ? – 3. Perspectives d’avenir
Il ressort de ce qui précède que la question de l’autonomie des robots est complexe. À la lumière de ces éléments, reprenons l’exemple du drone Kargu-2. D’après le rapport de l’ONU, il était programmé pour attaquer des cibles sans liaison de données entre l’homme et le système. Il s’agirait d’une véritable fonction « fire, forget and find » et signifierait que l’opérateur active le drone et le laisse voler vers la zone cible. Ce faisant, le drone naviguerait de manière autonome, identifierait la cible et attaquerait sans intervention du pilote. En termes d’autonomie des drones, la réalité de 2021 serait donc relativement proche de la fiction de 2017. Le CEO de STM, le fabricant de Kargu-2, a toutefois contredit cette affirmation. Selon lui, la technologie autonome se concentre sur la navigation et l’identification des types de cibles. Il a ajouté qu’une attaque ne pouvait être lancée que si l’opérateur « appuyait sur le bouton », avec la possibilité de l’interrompre à tout moment jusqu’à ce que le drone atteigne sa cible.
Voici pourquoi il est capital d’évaluer précisément l’autonomie d’un robot. Selon nous, les deux perspectives sont nécessaires : d’une part le point de vue externe, c’est-à-dire le degré d’autonomie du robot dans son environnement, dans l’accomplissement de sa mission et face aux humains, d’autre part le point de vue interne, soit les fonctionnalités du robot qui sont exécutées manuellement, automatiquement, de manière semi-autonome ou autonome. Est-ce l’humain qui décide d’attaquer un combattant avec le drone ou est-ce l’algorithme du drone ? Dans la prochaine édition d’armasuisse Insights, nous montrerons pourquoi ce thème revêt une si grande importance dans le contexte militaire.
Autres recherches d’armasuisse S+T sur les slaughterbots
En 2018 déjà, le CSDR a cherché à savoir si l’armement du drone pouvait réellement avoir un effet létal sur un humain.