print preview

Retour Aperçu, messages, manifestations


Contrôle des systèmes autonomes dans le secteur de la sécurité

L’utilisation de l’intelligence artificielle (IA) entraîne l’implication croissante des machines dans les processus décisionnels. Dans ce contexte, l’une des grandes questions concerne la manière d’assurer le contrôle humain afin que les forces de sécurité puissent engager des systèmes de plus en plus autonomes de manière fiable. Tel était le thème de l’atelier tenu les 2 et 3 novembre 2022 sous la direction de la Digital Society Initiative (DSI) de l’université de Zurich, en collaboration avec le Centre suisse des drones et de la robotique (CSDR DDPS), armasuisse Science et technologies. Divers intervenants y ont présenté les derniers résultats de recherche quant aux aspects éthiques et juridiques de l’utilisation de systèmes autonomes dans le secteur de la sécurité.

10.11.2022 | Noemi Schenk und Pascal Vörös, Centre suisse des drones et de la robotique, armasuisse Sciences et technologies

La première journée a été l’occasion de présenter les résultats de projets de recherche du Centre suisse des drones et de la robotique du DDPS (CSDR DDPS) et du programme national de recherche 77 « Transformation numérique ». Les deux orateurs principaux, Dr. Linda Eggert (université d’Oxford) et Dr. Giacomo Persi Paoli (Institut des Nations unies pour la recherche sur le désarmement, UNIDIR), ont également fait part de leurs constatations. Quelque 30 participants de l’armée, d’armasuisse, de l’administration fédérale et du monde de la recherche ont pris part à la discussion.

Après une brève introduction à l'atelier par le Prof. Dr Abraham Bernstein (université de Zurich, DSI) et Pascal Vörös (CSDR DDPS), PD Dr. Markus Christen (université de Zurich, DSI) a présenté deux études basées sur des enquêtes. On attend de l’IA (l’intelligence artificielle) qu’elle permette de prendre de meilleures décisions en matière de sécurité, renforçant ainsi la confiance dans les capacités de ces systèmes. Dans le même temps, la responsabilité morale, tout comme le fardeau général de la responsabilité, demeurent imputables à l’homme, que la machine soit pilotée par celui-ci ou par l’IA sur le terrain. Les êtres humains risquent donc de devenir les « boucs émissaires moraux » des erreurs commises par les systèmes d’IA.

Prof. Dr. Abraham Bernstein (université de Zurich, DSI) a ensuite abordé l’interaction entre les humains et l’IA. Les humains sont considérés comme davantage dignes de confiance que les systèmes d’IA sur le plan moral, mais comme moins qualifiés à d’autres égards. En outre, la première impression d’une IA influence fortement le jugement humain, ce qui fait que toute perte de confiance initiale perdure dans le temps.

Dr. Serhiy Kandul (université de Zurich) a enchaîné en soulignant un écueil du contrôle des systèmes d’IA à l’aide d’une expérience basée sur un jeu vidéo. Dans cette expérience, les participants devaient prédire qui, d’une IA ou d’un humain, était le plus à même d’accomplir correctement une tâche (alunissage virtuel d’un module lunaire) dans des conditions identiques. Les participants ont découvert qu’il était beaucoup plus facile d’anticiper la réussite d’un humain que celle d’une IA.

Prof. Dr. Thomas Burri (L'Université de Saint-Gall, HSG) a présenté huit recommandations concernant l’évaluation éthique et juridique des systèmes robotiques interagissant avec des humains dans le secteur de la sécurité. En résumé, ces recommandations montrent qu’étant donné le progrès technique fulgurant et l’adoption plus lente de normes juridiques, il conviendrait d’appliquer une forme d’éthique appliquée pratique, pragmatique et dynamique.

Les participants ont ensuite tourné leur regard vers l’avenir grâce à Dr. Samuel Huber (fortventis), qui a montré les principaux facteurs de réussite des équipes homme-machine, à l’instar de la compréhension des objectifs, de la fiabilité et de la communication. S’appuyant sur une simulation, l’intervenant a évoqué la manière dont une communication vocale intuitive pourrait être conçue.

En vidéoconférence depuis les États-Unis, Daniel Trusilo (L'Université de Saint-Gall, HSG), a présenté quelques exemples pratiques d’évaluation des systèmes autonomes sur le plan éthique. Les principes éthiques applicables à l’IA sont toujours plus nombreux à l’international, tout comme les défis dans ce domaine. On ne sait par exemple toujours pas exactement comment il conviendrait de contrôler les systèmes autonomes selon ces principes ou d’assurer une interopérabilité éthique judicieuse.

Les deux orateurs principaux, Dr. Linda Eggert (université d’Oxford) et Dr. Giacomo Persi Paoli (UNIDIR) ont présenté leurs études actuelles sous l’angle de l’IA et de son impact potentiel, puis répondu aux questions des participants lors d’une table ronde.

Dans son exposé axé sur la notion de « meaningful human control » (contrôle humain pertinent), Dr. Linda Eggert a formulé les trois préoccupations majeures en lien avec les systèmes d’armes autonomes : ils ne sont pas en mesure de respecter les prescriptions (« compliance »), notamment le droit international humanitaire, ils portent atteinte à la dignité humaine (« dignity ») et enfin, leur utilisation crée des failles en matière de responsabilité (« responsibility gaps »). En substance, ces préoccupations peuvent être traitées au moyen du concept de contrôle humain pertinent. Dr. Linda Eggert a cependant porté un regard critique sur ce concept dans le cadre de son intervention.

De son côté, Dr. Giacomo Persi Paoli a abordé les progrès et obstacles mis au jour lors des discussions des Nations unies, ainsi que le rôle de leur groupe d’experts sur les systèmes d’armes autonomes. Celui-ci soutient les efforts internationaux visant à assurer un développement et une utilisation responsables de l’IA. La publication de 11 principes directeurs en 2019 représente une contribution importante en la matière. Une approche multilatérale du contrôle de l’IA contribue à la paix internationale et à la sécurité.

Le deuxième jour, un atelier interne réunissant un petit groupe de participants de la veille a été organisé. Au cours d’une première phrase interactive, les participants ont pu échanger des idées et faire valoir divers intérêts, permettant d’identifier des axes de recherche potentiels dans une seconde phase.


Retour Aperçu, messages, manifestations