print preview

Zurück zur Übersicht Startseite


Kontrolle autonomer Systeme im Sicherheitsbereich

Durch den Einsatz von künstlicher Intelligenz (KI) werden Maschinen zunehmend in Entscheidungen einbezogen. Dabei ist eine Kernfrage, wie die menschliche Kontrolle sichergestellt werden kann, damit zunehmend autonomere Systeme durch Sicherheitskräfte verlässlich eingesetzt werden können. Dieser Frage nahm sich der Workshop vom 2. bis 3. November 2022 unter der Leitung der Digital Society Initiative (DSI) der Universität Zürich in Zusammenarbeit mit dem Schweizer Drohnen- und Robotik-Zentrum des VBS (SDRZ VBS), armasuisse Wissenschaft und Technologie an. Die Referate zeigten neueste Forschungsergebnisse zu ethischen und rechtlichen Aspekten der Steuerung autonomer Systeme im Sicherheitssektor.

10.11.2022 | Noemi Schenk und Pascal Vörös, Schweizer Drohnen- und Robotik-Zentrum, armasuisse Wissenschaft und Technologie

Am ersten Tag wurden einerseits Resultate aus Forschungsprojekten des Schweizer Drohnen- und Robotik-Zentrum des VBS (SDRZ VBS) und des Nationalen Forschungsprogramms 77 «Digitale Transformation» vorgestellt. Andererseits präsentierten die internationalen Keynote-Speakers Dr. Linda Eggert (Universität Oxford) und Dr. Giacomo Persi Paoli (Institut für Abrüstungsforschung der UNO; UNIDIR) ihre Erkenntnisse. Rund 30 Teilnehmenden aus Armee, armasuisse, Bundesverwaltung und der Forschung beteiligten sich an der Diskussion.  

Nach einer kurzen Einführung zum Workshop durch Prof. Dr. Abraham Bernstein (DSI) und Pascal Vörös (SDRZ VBS) stellte als erstes PD Dr. Markus Christen (Universität Zürich, DSI) zwei umfragebasierte Studien vor. Durch den Einbezug von KI (Künstliche Intelligenz) in Sicherheitsentscheidungen besteht die Erwartung, dass bessere Entscheidungen getroffen werden können. Dies erhöht das Vertrauen in die Fähigkeit von KI-Systemen. Gleichzeitig bleibt sowohl die moralische Verantwortung als auch die Verantwortungslast beim Menschen hängen, unabhängig davon ob der Mensch oder die KI operativ handelt. Damit besteht die Gefahr, dass Menschen zu «moralischen Sündenböcken» für Fehler werden, die von KI-Systemen begangen werden.

Darauffolgend führte Prof. Dr. Abraham Bernstein (Universität Zürich, DSI) die Zuhörerinnen und Zuhörer in die Interaktion zwischen dem Menschen und der KI ein. Menschen werden moralisch vertrauenswürdiger als KI-Systeme wahrgenommen, aber als weniger fähig betrachtet. Des Weiteren beeinflusst der erste Eindruck einer KI deren Beurteilung durch Menschen stark, sodass es eine lange Zeit dauert, um initiale Vertrauensverluste wieder wett zu machen.

Dr. Serhiy Kandul (Universität Zürich) zeigte anschliessend anhand eines auf einem Computerspiel basierenden Experiments eine Tücke bei der Kontrolle von KI-Systemen. In dem Experiment mussten die Teilnehmenden vorhersagen, ob eine KI, bzw. ein Mensch eine Aufgabe (virtuelles Landen einer Mondfähre) bei jeweils gleichen Bedingungen erfolgreich meistern würde. Der Spielerfolg bei menschlicher Spielsteuerung war eindeutig besser voraussehbar, als jener bei Steuerung durch die KI. Dass ein solcher Unterschied besteht, war den Teilnehmenden allerdings nicht bewusst.

Prof. Dr. Thomas Burri (Universität St. Gallen, HSG) stellte acht Empfehlungen für die ethische und rechtliche Beurteilung von mit Menschen interagierenden Robotersystemen im Sicherheitssektor vor. Zusammengefasst verdeutlichen diese Empfehlungen, dass aufgrund der rasanten Technologieentwicklung und der langsameren Adaption von Rechtsnormen eine praktische, pragmatische und dynamische Form einer angewandten Ethik genutzt werden sollte.

Anschliessend folgte ein Blick in die Zukunft, wobei Dr. Samuel Huber (forventis) aufzeigte, welche Faktoren für erfolgreiche Mensch-Maschine-Teams wichtig sind, wie beispielsweise Zielverständnis, Verlässlichkeit oder Kommunikation. Anhand einer Simulation ging er darauf ein, wie eine mögliche, intuitive Sprachkommunikation aufgebaut werden kann.

Daniel Trusilo (Universität St. Gallen, HSG), welcher aus den USA online zugeschaltet wurde, stellte praktische Anwendungsbeispiele für die ethische Beurteilung von autonomen Systemen vor. Die Anzahl von ethischen Grundsätzen, die auf KI anwendbar sind, nimmt international zu. Gleiches gilt für die Herausforderungen in diesem Bereich. So ist beispielsweise noch nicht klar, wie die Überprüfung autonomer Systeme entlang dieser Grundsätze oder eine ethische Interoperabilität sinnvollerweise umgesetzt werden.

Die Hauptreferenten Dr. Linda Eggert (Universität Oxford) und Dr. Giacomo Persi Paoli (UNIDIR) berichteten über ihre aktuellen Studien mit Blick auf KI und deren potenziellen Auswirkungen und diskutierten als Abschluss in einer Paneldiskussion Fragen der Teilnehmerinnen und Teilnehmer.

Dr. Eggert stellte den Begriff der «Meaningful Human Control», zu Deutsch sinnvolle menschliche Kontrolle, in den Fokus ihres Vortags. Sie zeigte auf, dass drei Hauptbedenken gegenüber autonomen Waffensystemen vorgebracht werden, nämlich erstens, dass diese Systeme Vorschriften nicht einhalten können («Compliance»), insbesondere das internationale, humanitäre Völkerrecht; zweitens, dass sie den Menschen in seiner Würde («Dignity») verletzen; und drittens, dass Verantwortungslücken («Responsibility gaps») entstehen. Der allgemeine Tenor ist, dass diese Bedenken durch das Konzept der sinnvollen menschlichen Kontrolle adressiert werden können. Allerdings hinterfragte Dr. Eggert dies in ihren Ausführungen kritisch und zog diesen Umstand in Zweifel.

Dr. Persi Paoli seinerseits ging auf die Fortschritte und Hindernisse der UN (United Nations)-Diskussionen und die Rolle der entsprechenden Expertengruppe zu autonomen Waffensystemen ein. Diese unterstützt die internationalen Bemühungen zur Gewährleistung einer verantwortungsvollen Entwicklung und Nutzung von KI. 2019 wurde mit der Publikation von 11 Leitprinzipien ein wichtiger Input geliefert. Ein multilateraler Ansatz zur Steuerung von KI dient dem internationalen Frieden und der Sicherheit.

Am zweiten Tag wurde ein interner Workshop mit einer kleinen Gruppe von Teilnehmerinnen und Teilnehmern des vorherigen Tages durchgeführt. In einer ersten interaktiven Phase tauschten diese Inputs und Interessen aus, aus welchen in einer zweiten Phase mögliche weiterführende Forschungsthemen identifiziert wurden. 


Zurück zur Übersicht Startseite