print preview

Wirklich autonom – oder vielleicht doch nur automatisch?

Wir sind autonom, wenn wir unabhängig und selbstständig sind. Sprechen wir von einem robotischen oder unbemannten autonomen System, bedeutet dies, dass der Roboter ebenfalls unabhängig und selbstständig ist? Zu bestimmen, inwieweit ein System tatsächlich ohne menschlichen Einfluss agieren darf, ist für viele Fragestellungen im Bereich der Autonomie essentiell.

Pascal Vörös und Elianne Egli, armasuisse Wissenschaft und Technologie

Ausschnitt des Videos über Slaughterbots. Im Vordergrund ist ein Referent auf einer Bühne zu erkennen, im Hintergrund wird eine Nanodrohne gezeigt.
Das Slaughterbot-Video wurde am 12. November 2017 vom Future of Life Institute und Stuart Russell, einem Professor für Informatik in Berkeley, auf YouTube veröffentlicht und erreichte bis heute über drei Millionen Aufrufe.
© IEEE Spectrum

Die Debatte um unbemannte, autonome Systeme findet ihren Höhepunkt in den Fragestellungen rund um tödliche autonome Waffensysteme so genannte «Lethal Autonomous Weapons Systems (LAWS) » und wird seit Jahren international geführt.
Im Mai dieses Jahres brach eine veritable Medienwelle rund um den Einsatz einer türkischen Angriffsdrohne Kargu-2 im Kriegsgebiet in Lybien aus. Ein Uno-Bericht legte nahe, dass eine Drohne erstmals einen Menschen autonom attackiert haben könnte[1]. Zahlreiche Medien nahmen den Ball auf und stellten sich die Frage, ob wir in der Ära der so genannten «Killerroboter» angekommen sind. Der türkische Hersteller STM hatte nachfolgend jedoch dementiert, dass die Drohne vollständig autonome Angriffe ausführen kann (vgl. (undocs.org)).

Als Teil des Technologiezentrums des VBS, armasuisse Wissenschaft und Technologie, befasst sich das Schweizer Drohnen- und Robotik-Zentrum (SDRZ) intensiv mit aktuellen und zukünftigen Anwendungen unbemannter, mobiler Systeme. In diesem Beitrag der armasuisse Insights möchten wir Ihnen einen kurzen Einblick in die Komplexität des Themas «Autonomie in der Robotik» geben. 

Wie autonom ist ein Roboter? – 1. Blick nach aussen 

Eines der meistreferenzierten Klassifikationssysteme in der Autonomie-Literatur für unbemannte Systeme ist das ALFUS (Autonomy Level for Unmanned Systems) Framework. Dieses existiert seit dem Jahr 2004 und wird seither weiterentwickelt. Drei Kernelemente sind dabei zentral für die Beurteilung der Autonomie: Die Umgebungs-Komplexität, die Missions-Komplexität und die Abhängigkeit von menschlichen Operateuren.

Die Grafik zeigt, wie im Modell die autonome Fähigkeit für unbemannte Systeme in drei Dimensionen erfasst wird: 1) Unabhängigkeit vom Menschen: In welchem Masse das System ohne oder mit minimalem menschlichen Eingriff agieren kann; 2) Komplexität der Mission: wie komplex die Missionen sind, die das unbemannte System ausführen kann; und 3) Komplexität der Umwelt: wie schwierig die Missionsumgebung ist. Heutige Rasenmäher-Roboter oder Staubsauger-Roboter sind zum Beispiel relativ unabhängig vom Menschen (zumindest, wenn einst installiert und kalibriert). Sie üben wenige Funktionen in einer relativ statischen, einfachen und flachen Umgebung aus. Die vergleichbar simplen Befehlsstrukturen benötigen das Einstellen von nur wenigen Parametern. Gesamthaft haben solche Roboter deshalb eine tiefe Autonomie (grüne Kurve). Nehmen wir als Beispiel den Schweizer Laufroboter ANYmal Roboter in einer Inspektionsmission, so ist dieser ebenfalls relativ unabhängig vom Menschen. Er ist jedoch auch fähig in den komplexeren Umgebungen von Industrieanlagen und im unwegsamen Gelände zu agieren, sich Detail seiner Umgebung zu merken sowie Hindernissen auszuweichen. Die Sensorik bietet visuelle, thermische und akustische Einblicke für die Zustandsüberwachung und dient dem Scannen der Umgebung zur genauen Positionierung des Roboters. Auf künstlicher Intelligenz basierte Algorithmen analysieren die Umgebung und erkennen Anomalien. Solche werden dann den Technikern gemeldet, welche weitere Aktionen einleiten können. Daher verfügt der ANYmal über eine weit höhere Autonomie (orange Kurve). Auf die letzte, rote Kurve kommen wir weiter unten zurück. 

Wie autonom ist ein Roboter? – 2. Blick ins Innere

Im Rahmen eines Forschungsprojektes arbeitet das SDRZ an einem multidimensionalen System zur Autonomieklassifikation unabhängig von der Missions- und Umgebungskomplexität. Entstanden ist dabei das SPDA-Modell, bei dem der Autonomiegrad eines Systems anhand seiner Charakteristiken in den Dimensionen Wahrnehmen (Sense), Planen (Plan), Entscheiden (Decide) und Ausführen (Act) bestimmt wird. Die Systeme lassen sich anschliessend in eine der vier Autonomiestufen Manuell, Automatisch, Semi-Autonom und Autonom einteilen.

Wahrnehmen: Informationsaufnahme und –klassifikation; Weiterverarbeitung zu einem Umgebungsmodell; beinhaltet die «Orientierungsfähigkeit» eines Systems

Planen: Analyse, Wertung und Interpretation des Umgebungs-Modells; Ableitung von Handlungsoptionen; Bewertung und Priorisierung bei mehreren Handlungsoptionen; beinhaltet die «Situation Awareness» eines Systems

Entscheiden: Auswahl und Auslösung der auszuführenden Handlungsoption; Digitale Entscheidung: «Go» oder «No-Go»; beinhaltet die «Entscheidungsfähigkeit» eines Systems

Ausführen: Ausführung der ausgewählten Handlungsoption; beinhaltet die «Handlungsfähigkeit» eines Systems

Autonomiegrad am fiktiven Beispiel des «Slaugtherbots» 

Doch wie werden Systeme konkret in die verschiedenen Autonomiestufen eingeteilt? Vielleicht erinnern Sie sich an das fiktive Slaugtherbotvideo, in welchem Nanodrohnen menschliche Ziele gezielt eliminieren. Wir haben nachfolgend versucht, exemplarisch und vereinfacht die Funktionen der Nanodrohne des Slaugtherbotfilms entlang des SPDA Schemas zu klassifizieren. 

  1. Flug
  2. Zielerkennung
  3. Attacke

Gemäss dem SPDA-Modell und basierend auf den Informationen innerhalb des Filmes und unserer Interpretationen haben wir die Autonomiegrade dieser drei Hauptfunktionen folgendermassen bestimmt:

Funktionsautonomie des Fluges

Die Nanodrohne fliegt selbstständig des Autopiloten. Dieser kann die Bewegung der Drohne mit Hilfe von Informationen aus den integrierten Sensoren berechnen. Ein Bordcomputer erkennt die Umgebung rund um die Drohne und lässt sie während des Fluges einen Mindestabstand zum Boden und Hindernissen einhalten. Dies gilt auch für bewegliche Hindernisse, welchen die Drohne entsprechend ausweicht. Der menschliche Operateur kann die Drohne via Gestik starten (in die Luft schleudern) und steuern (Hand ausstrecken und die Drohne landet darauf). Des Weiteren lassen die Bilder vermuten, dass die Drohne innerhalb eines vordefinierten Raumes fliegt und über verschiedene Flugphasenverfügt (z.B. Suchen und Zerstören; Schweben, Landemanöver, etc.).
Die Dimensionen Wahrnehmen, Entscheiden, Ausführen werden durch den Computer des Systems übernommen. Einzig bei der Dimension "Planen" kommt der Mensch ins Spiel, indem er durch seine Gestik die Drohne dazu bewegt, automatisch spezifische Flugmanöver zu absolvieren. Der Autonomiegrad der Flugfunktion ist somit «Semi-autonom».

Funktionsautonomie der Zielerkennung

An der Drohne sind Kameras angebracht, welche zeitgleich Bilder rund um die Drohne aufnehmen. Des Weiteren verfügt sie über Algorithmen zur Freund-Feind-Erkennung inklusive Gesichtserkennungssoftware. Hinterlegt ist ein durch den Operateur vordefiniertes Zielprofil (z.B. Alter, Geschlecht, Gesundheitszustand, Kleidung, Ethnizität, etc.). Die Daten werden an den Prozessor weitergegeben und verarbeitet. Anhand der vorgegebenen Merkmale ist ein Algorithmus in der Lage die Ziele zu erkennen.
Alle vier Dimensionen Wahrnehmen, Planen, Entscheiden und Ausführen werden vom System übernommen. Der Autonomiegrad der Objekterkennung ist somit «Autonom».

Funktionsautonomie der Attacke

Die Nanodrohne ist mit einer Hohlladung mit 3 Gramm Sprengstoff ausgestattet. Wird ein Ziel erkannt, so fliegt die Drohne direkt auf den Kopf des Zieles zu. Mittels der vom Prozessor berechneten Distanz zum Ziel wird diese kurz vor dem Aufsetzen der Drohne zur Explosion gebracht.
Auch hier werden alle Dimensionen ohne menschlichen Einfluss vom System übernommen. Der Autonomiegrad der Attacke ist somit «Autonom».

Wie eingangs erwähnt ist das Beispiel stark vereinfacht. Ein weiteres Element im Film ist beispielweise das Verhalten der Drohne im Schwarm. Wenn wir kurz die Grafik 1 in Erinnerung rufen, so haben wir die Slaughterbot als Roboter mit dem höchsten Autonomiegrad identifiziert. Grund dafür ist, dass die Missions- und Umweltkomplexität beim gezeigten autonomen Angriff auf die Studenten einer Universität sehr hoch ist und die Drohnen, wenn einmal losgelassen, völlig unabhängig vom Menschen sind. Beispielweise müssen die Drohnen Eindringpunkte bei Gebäude erkennen, die Räume systematisch nach Zielen durchsuchen, die Attacken koordinieren, in Echtzeit ihren Pfad planen, usw.

Wie autonom ist ein Roboter? – 3. Blick nach vorne

Die obigen Ausführungen zeigen, dass die Frage zur Autonomie von Robotern komplex ist. Kommen wir im Lichte dessen auf das eingangs erwähnte Beispiel der Kargu-2-Drohne zurück. Gemäss UN Bericht wurde die Kargu-2-Drohne so programmiert, dass sie Ziele ohne eine Datenverbindung zwischen dem Menschen und dem System angreifen kann. Dies wäre eine echte «Fire, Forget and Find»-Funktion und würde bedeuten, dass der Operateur die Drohne zum Beispiel startet und in das Zielgebiet fliegen lässt. Die Drohne würde dabei selbstständig navigieren, das Ziel identifizieren und ohne Zutun des Piloten angreifen. Was die Autonomie der Drohne angeht, wären wir somit 2021 in der realen Welt ziemlich nahe an der 2017 gezeigten fiktiven Realität. Der CEO des Herstellers STM, Ozgur Guleryuz, widersprach jedoch dieser Einschätzung. Er erklärte, dass die autonome Technologie sich auf die Navigation und die Identifizierung von Zieltypen konzentriere. Ein Angriff könne nur durch das «Drücken des Buttons» durch den Operateur starten, mit einer Option, jederzeit abzubrechen, bis die Drohne ihr Ziel treffe.  

Dies veranschaulicht, wie wichtig es ist, die Autonomie eines Roboters im Detail zu beurteilen. Dabei braucht es unserer Ansicht nach beide Perspektiven. Die Aussensicht, wie selbstständig der Roboter in seiner Umwelt und in der Erfüllung seiner Mission ist und wie unabhängig er vom Menschen agiert. Die Innensicht, welche Funktionalitäten des Roboters manuell, automatisch, semi-autonom oder autonom vollzogen werden. Ist es der Mensch, der entscheidet, ob ein Kombattant durch die Drohne angegriffen wird oder ist es der Algorithmus der Drohne? In unserem nächsten Beitrag bei armasuisse Insights möchten wir aufzeigen, weshalb das Thema im militärischen Kontext von so hoher Bedeutung ist. 

Weitere Untersuchungen von armasuisse W+T zu Slaughterbots

Bereits im Jahr 2018 untersuchte das SDRZ, ob die letale Wirkung der Nanodrohne tatsächlich eine tödliche Wirkung für einen Menschen habe könnte.