print preview

Ritornare alla pagina precedente Visione d'insieme, attualità, manifestazione


Controllo di sistemi autonomi nel settore della sicurezza

Grazie all’impiego dell'intelligenza artificiale (IA), si assiste ad un crescente coinvolgimento di macchine nei processi decisionali. In un contesto come questo, la domanda chiave da porsi è come possa essere assicurato il controllo umano in modo da permettere un impiego affidabile di sistemi sempre più autonomi da parte delle forze di sicurezza. Proprio questa domanda era oggetto del workshop tenutosi dal 2 al 3 novembre 2022 sotto la direzione della DSI (Digital Society Initiative) dell'università di Zurigo in collaborazione con il Centro svizzero dei droni e della robotica del DDPS (CSDR DDPS), armasuisse Scienza e tecnologia. I relatori hanno esposto i più recenti risultati della ricerca in merito agli aspetti etici e giuridici del controllo di sistemi autonomi nel settore della sicurezza.

10.11.2022 | Noemi Schenk und Pascal Vörös, Centro svizzero dei droni e della robotica, armasuisse Scienza e tecnologia

Il primo giorno sono stati presentati i risultati dei progetti di ricerca del Centro svizzero dei droni e della robotica del DDPS (CSDR DDPS) e del programma nazionale di ricerca 77 sulla svolta digitale. Inoltre, c’è stata la presentazione dei risultati dei relatori principali Dr. Linda Eggert (Università di Oxford) e Dr. Giacomo Persi Paoli (Istituto delle Nazioni Unite per la ricerca sul disarmo; UNIDIR). Alla discussione hanno partecipato circa 30 esponenti dell’esercito, di armasuisse, dell’Amministrazione federale e del mondo della ricerca.

Dopo una breve introduzione al workshop da parte del Prof. Dr. Abraham Bernstein (DSI) e di Pascal Vörös (CSDR DDPS), il PD Dr. Markus Christen (Università di Zurigo, DSI) è stato il primo a presentare due studi basati su sondaggi. Integrando l’IA (intelligenza artificiale) nei processi decisionali in ambito di sicurezza ci si aspetta che vengano prese delle decisioni migliori. Questo rafforza la fiducia nelle capacità dei sistemi IA. Al tempo stesso, sia la responsabilità morale che il carico di responsabilità restano prerogative dell’essere umano, a prescindere dal fatto che sia quest'ultimo o l'IA ad agire a livello operativo. In questo modo si corre il rischio che delle persone diventino dei «capri espiatori sul piano morale» per errori commessi da sistemi IA.

Partendo da queste considerazioni, Prof. Dr. Abraham Bernstein (Università di Zurigo, DSI) ha introdotto il pubblico presente al concetto di interazione tra uomo e IA. Rispetto ai sistemi IA, gli esseri umani vengono percepiti come moralmente più affidabili, ma considerati meno capaci. La prima impressione che si ha di una soluzione IA influisce fortemente sulla sua valutazione da parte degli esseri umani, per cui bisognerà attendere molto tempo prima che possa essere nuovamente compensata la perdita di fiducia iniziale.

Dr. Serhiy Kandul (Università di Zurigo) ha richiamato poi l’attenzione su una difficoltà che si incontra nell'attività di controllo dei sistemi di IA, sull’esempio di un esperimento basato su un gioco elettronico. Nell’esperimento, i partecipanti dovevano predire se una soluzione IA o un essere umano sarebbero riusciti a svolgere un determinato compito (atterraggio virtuale di un modulo lunare) agendo nelle stesse condizioni. Il successo nel gioco era decisamente più facile da prevedere in caso di controllo umano che in caso di controllo da parte dell’IA. I partecipanti non erano però consapevoli del fatto che ci fosse una tale differenza.

Prof. Dr. Thomas Burri (Università di San Gallo, HSG) ha presentato otto suggerimenti per una valutazione etica e giuridica di sistemi di robotica interagenti con esseri umani nel settore della sicurezza. In sintesi, questi suggerimenti sottolineano che, dati il rapidissimo sviluppo tecnologico e il più lento adeguamento delle norme giuridiche, si dovrebbe ricorrere a una forma pratica, pragmatica e dinamica di etica applicata.

Dopodiché, si è tentato uno sguardo in prospettiva al futuro e, in questo contesto, Dr. Samuel Huber (forventis) ha esposto quali sono i fattori importanti per il successo di un gruppo operativo composto da uomo e macchina, come ad esempio comprensione dell’obiettivo, affidabilità o comunicazione. Sulla base di una simulazione, ha spiegato come potrebbe essere sviluppato un processo di comunicazione linguistica intuitivo.

Daniel Trusilo (Università di San Gallo, HSG), collegatosi online dagli Stati Uniti, ha presentato degli esempi applicativi pratici di valutazione etica di sistemi autonomi. Il numero di principi etici applicabili a sistemi di IA, a livello internazionale, è in aumento. Lo stesso vale per le sfide da affrontare in questo settore. Ad esempio, non è ancora chiaro come possa essere eseguita in modo sensato la verifica dei sistemi autonomi alla luce di questi principi o implementata un’interoperabilità etica.

I relatori principali Dr. Linda Eggert (Università di Oxford) e Dr. Giacomo Persi Paoli (UNIDIR) hanno riferito sui loro attuali studi con riferimento all’IA e ai loro potenziali effetti, discutendo poi le domande dei partecipanti in una tavola rotonda.

Eggert ha incentrato la sua relazione sulla definizione di «Meaningful Human Control», ovvero controllo umano significativo, puntualizzando che i principali dubbi avanzati nei confronti di sistemi d’arma autonomi sono tre, e cioè: primo, che questi sistemi non possano attenersi alle specifiche prescrizioni («Compliance»), in particolare quelle del diritto internazionale umanitario; secondo, che violino la dignità delle persone («Dignity»); e terzo, che sorgano delle lacune in termini di responsabilità («Responsibility gaps»). Il tenore generale è che questi dubbi possano essere eliminati affidandosi ad un controllo umano significativo. Nella sua relazione, Dr. Eggert ha però riflettuto in modo critico su questo mettendolo in dubbio.

Dal canto suo, Dr. Persi Paoli ha parlato dei progressi fatti e degli ostacoli incontrati nelle discussioni condotte in seno alle Nazioni Unite e del ruolo svolto dal gruppo di esperti sui sistemi d’arma autonomi, il quale sostiene gli sforzi internazionali volti a garantire uno sviluppo e un utilizzo responsabili dell'IA. Con la pubblicazione di 11 principi guida, nel 2019 è stato dato un importante input. Un approccio multilaterale al controllo di soluzioni IA va a beneficio della pace internazionale e della sicurezza.

Il secondo giorno si è tenuto un workshop interno con un piccolo gruppo di partecipanti e relatori del giorno precedente. In una prima fase interattiva, i partecipanti hanno avuto modo di scambiarsi input e interessi dai quali, in una seconda fase, sono stati dedotti possibili ulteriori temi di ricerca.


Ritornare alla pagina precedente Visione d'insieme, attualità, manifestazione