print preview

Davvero autonomo o solo automatico?

Siamo autonomi quando siamo indipendenti e autosufficienti. Quando parliamo di un sistema autonomo robotico o senza occupanti, significa che anche il robot è indipendente e autonomo? Stabilire la misura in cui un sistema è effettivamente autorizzato ad agire senza intervento umano è essenziale per molti aspetti nel campo dell’autonomia.

Pascal Vörös, Elianne Egli, armasuisse Scienza e Tecnologia

Clip del video sugli slaughterbot. In primo piano è raffigurato un relatore su un palco e sullo sfondo appare un nanodrone.
Il 12 novembre 2017, Stuart Russell, professore d’informatica di Berkeley, e il Future of Life Institute pubblicarono su YouTube il video sugli slaughterbot, che finora ha totalizzato oltre tre milioni di visualizzazioni.
© IEEE Spectrum

Il dibattito sui sistemi autonomi senza occupanti culmina nelle questioni che riguardano i sistemi di armi autonome letali, i cosiddetti «Lethal Autonomous Weapons System» (LAWS), e prosegue a livello internazionale da anni.

Nel maggio di quest’anno, una vera e propria ondata mediatica è scoppiata intorno al dispiegamento di un drone d’attacco turco Kargu-2 nella zona di guerra libica. Secondo un rapporto delle Nazioni Unite, un drone potrebbe aver attaccato autonomamente un essere umano per la prima volta. Numerosi media hanno colto la palla al balzo, chiedendosi se siamo giunti all’era dei cosiddetti «robot assassini». Il produttore turco STM ha tuttavia negato in seguito che il drone potesse effettuare attacchi completamente autonom (cfr.. (undocs.org)).

Come parte del centro tecnologico del DDPS, armasuisse Scienza e Tecnologia, il Centro svizzero dei droni e della robotica (CSDR), si occupa intensamente nelle applicazioni attuali e future dei sistemi mobili senza pilota. Con questo contributo di armasuisse Insights desideriamo fornire un breve sguardo sulla complessità dell’argomento dell'autonomia nella robotica. 

Qual è il grado di autonomia di un robot? – 1. Uno sguardo all’esterno

Uno dei sistemi di classificazione a cui si fa più riferimento nella letteratura sull’autonomia per i sistemi senza occupanti è il framework ALFUS (Autonomy Level for Unmanned Systems), che esiste dal 2004 ed è in continua evoluzione. Nel valutare il grado di autonomia sono centrali tre elementi fondamentali: la complessità dell’ambiente, quella della missione e la dipendenza dagli operatori umani.

Il grafico mostra come la capacità autonoma dei sistemi senza occupanti viene catturata in tre dimensioni nel modello: 1) Indipendenza dalle persone: fino a che punto il sistema può funzionare con un intervento umano nullo o limitato; 2) Complessità della missione: grado di complessità delle missioni che il sistema senza occupanti può portare a termine; e  3) Complessità ambientale: grado di difficoltà dell’ambiente della missione. I tosaerba robotici e gli aspirapolvere robotici odierni sono ad es. relativamente indipendenti dalle persone (almeno dopo essere stati installati e calibrati) e svolgono poche funzioni in un ambiente relativamente statico, semplice e piano. Le strutture di comando relativamente semplici richiedono l’impostazione di pochi parametri. Complessivamente tali robot hanno quindi una bassa autonomia (curva verde). Se prendiamo come esempio il robot a quattro zampe svizzero ANYmal nell’ambito di una missione d’ispezione, questo è relativamente indipendente anche dagli esseri umani. Tuttavia, è in grado di operare anche in ambienti più complessi, come impianti industriali, e su terreni accidentati, memorizzando i dettagli di ciò che lo circonda ed evitando gli ostacoli. La tecnologia dei sensori fornisce dati visivi, termici e acustici per monitorare la situazione e serve a scansionare l’ambiente per posizionare il robot con precisione. Algoritmi basati sull’intelligenza artificiale analizzano l’ambiente e riconoscono le anomalie, che in seguito vengono segnalate ai tecnici, i quali possono prendere ulteriori provvedimenti. Pertanto l’ANYmal dispone di un’autonomia nettamente superiore (curva arancione). Sull’ultima curva rossa torneremo più avanti. 

Qual è il grado di autonomia di un robot? – 2. Uno sguardo all’interno

Nell’ambito di un progetto di ricerca, il CSDR sta lavorando a un sistema multidimensionale di classificazione dell’autonomia che sia indipendente dalla complessità della missione e dell’ambiente. Ne è risultato il modello SPDA, nel quale il grado di autonomia di un sistema viene stabilito in base alle sue caratteristiche nelle dimensioni di percezione (Sense), pianificazione (Plan), decisione (Decide) ed esecuzione (Act). È quindi possibile classificare i sistemi in uno di quattro livelli di autonomia: Manuale, Automatico, Semiautonomo e Autonomo.

Percezione: acquisizione e classificazione delle informazioni; ulteriore elaborazione in un modello ambientale; include la «capacità di orientamento» di un sistema

Pianificazione: analisi, valutazione e interpretazione del modello ambientale; deduzione di opzioni operative; valutazione e prioritizzazione nel caso di diverse opzioni operative; include la «consapevolezza situazionale» di un sistema

Decisione: selezione e attivazione dell’opzione operativa da eseguire; decisione digitale: «go» o «no-go»; include la «capacità decisionale» di un sistema

Esecuzione: esecuzione dell’opzione operativa selezionata; include la «capacità di agire» di un sistema

Grado di autonomia usando l’esempio fittizio dello «slaugtherbot» 

Come si classificano quindi concretamente i sistemi nei diversi livelli di autonomia? Forse ricorderete il video di fantasia sugli slaugtherbot, nel quale i nanodroni eliminano obiettivi umani in modo mirato. Di seguito abbiamo tentato di classificare, in modo esemplificativo e semplificato, le funzioni del nanodrone del filmato sugli slaugtherbot seguendo il modello SPDA.

Per il compimento della missione da parte del nanodrone, abbiamo individuato tre funzioni principali: 

  1. Volo
  2. Riconoscimento dell’obiettivo
  3. Attacco

Seguendo il modello SPDA e in base alle informazioni fornite nel filmato e alle nostre interpretazioni, abbiamo stabilito i livelli di autonomia di queste tre funzioni principali nel modo seguente:

Autonomia funzionale del volo

Il nanodrone vola indipendentemente dal pilota automatico, che può calcolare il movimento del drone usando le informazioni dei sensori integrati. Un computer di bordo rileva l’ambiente attorno al drone, permettendogli di mantenere una distanza minima dal terreno e dagli ostacoli durante il volo. Questo vale anche per gli ostacoli in movimento, che vengono quindi evitati dal drone. L’operatore umano può servirsi di gesti per avviare il drone (lanciarlo in aria) e controllarlo (allungare la mano per farlo atterrare). Le immagini lasciano inoltre presagire che il drone voli in uno spazio predefinito e con diverse fasi di volo (ad es. ricerca e distruzione, sorvolo, manovra di atterraggio ecc.).
Le dimensioni Percezione, Decisione, Esecuzione vengono rilevate dal computer del sistema. Solo nella dimensione «Pianificazione» entra in gioco l’essere umano, che si avvale dei gesti per spostare il drone allo scopo di realizzare automaticamente specifiche manovre di volo. Il grado di autonomia della funzione di volo è quindi «Semiautonomo».

Autonomia funzionale del riconoscimento del bersaglio

Sul drone sono applicate delle telecamere, che contemporaneamente registrano visivamente l’ambiente circostante. Inoltre dispone di algoritmi di rilevamento di amici e nemici, incluso il software di riconoscimento facciale. Viene memorizzato un profilo obiettivo, che è stato predefinito dall’operatore (ad es. età, sesso, stato di salute, abbigliamento, etnia ecc.). I dati vengono trasmessi al processore ed elaborati e, in base alle caratteristiche date, un algoritmo è in grado di riconoscere gli obiettivi.
Tutte e quattro le dimensioni – Percezione, Pianificazione, Decisione ed Esecuzione – vengono rilevate dal sistema. Il grado di autonomia del riconoscimento dell’oggetto è quindi «Semiautonomo».

Autonomia funzionale dell’attacco

Il nanodrone è dotato di un vano cavo contenente 3 grammi di esplosivo. Quando il drone riconosce un bersaglio, si dirige direttamente verso la testa dell'obiettivo. Utilizzando la distanza dal bersaglio calcolata dal processore, il drone viene fatto esplodere appena prima di posarsi.
Anche in questo caso tutte le dimensioni vengono rilevate dal sistema, senza intervento umano. Il grado di autonomia dell’attacco è quindi «Autonomo».

Come accennato all’inizio, l’esempio è stato molto semplificato. Un altro elemento del filmato è il comportamento del drone in uno sciame. Se richiamiamo brevemente alla memoria il grafico 1, abbiamo identificato lo slaughterbot come il robot con il più alto livello di autonomia, perché il grado di complessità della missione e dell'ambiente nell’attacco autonomo mostrato agli studenti di un’università è molto elevato e i droni, una volta lasciati andare, sono completamente indipendenti dagli esseri umani. I droni devono ad es. rilevare i punti di ingresso negli edifici, cercare sistematicamente i bersagli nelle stanze, coordinare gli attacchi, pianificare il loro percorso in tempo reale ecc. 

Qual è il grado di autonomia di un robot? – 3. Uno sguardo in avanti 

Le precedenti spiegazioni dimostrano la complessità della questione legata all’autonomia dei robot. Detto ciò, torniamo all’esempio del drone Kargu-2, menzionato all’inizio di questo articolo. Secondo il rapporto dell’ONU, il drone Kargu-2 era programmato per attaccare obiettivi senza un collegamento dati tra l’essere umano e il sistema. Si tratterebbe di una vera funzione «Fire, Forget and Find» e significherebbe che ad es. l’operatore lancerebbe il drone e lo farebbe volare nell’area del bersaglio. Il drone si muoverebbe autonomamente, identificherebbe il bersaglio e lo attaccherebbe senza l’intervento del pilota. In termini di autonomia dei droni, nel mondo reale del 2021 saremmo piuttosto vicini allo scenario fantastico del video del 2017. Özgür Güleryüz, CEO del produttore STM, ha tuttavia contraddetto questa interpretazione, spiegando che la tecnologia autonoma è concentrata sulla navigazione e sull’identificazione dei tipi di bersaglio. Un attacco potrebbe iniziare solo se l’operatore «preme il pulsante», con la possibilità di interrompere l’azione in qualsiasi momento, finché il drone non colpisce l’obiettivo.  

Viene così spiegata l’importanza di valutare nel dettaglio l’autonomia di un robot. Dal nostro punto di vista sono necessarie entrambe le prospettive: quella esterna sul grado di autonomia del robot nel suo ambiente e nel compiere la propria missione e sul grado di indipendenza dagli esseri umani della sua azione, e quella interna, relativa alle funzionalità del robot che vengono eseguite in modo manuale, automatico, semiautonomo o autonomo. Chi decide se un combattente viene attaccato dal drone: l’essere umano o l’algoritmo del drone? Nel nostro prossimo contributo per armasuisse Insights intendiamo spiegare la grande importanza di questo argomento nel contesto militare. 

Ulteriori analisi di armasuisse S+T sugli slaughterbot

Già nel 2018 il CSDR aveva analizzato se l’effetto letale del nanodrone potesse effettivamente avere un effetto mortale su un essere umano.