Sicurezza nell’era dell’IA: opportunità e rischi
Il Cyber Defence Campus nasce nel 2019, proposto da armasuisse Scienza e Tecnologia, con lo scopo di unire oltre all’amministrazione federale, anche industria e scienza nell’affrontare tematiche riguardo le evoluzioni digitali e la cibersicurezza. Quest’anno la conferenza proposta dal CYD si è svolta al Kursaal di Berna il 26 ottobre 2023. L’argomento che ha fatto da filo conduttore durante tutta la giornata è stato «La sicurezza nell’era dell’intelligenza artificiale: opportunità e rischi».
Gervasoni Anna, Settore specialistico Comunicazione, Settore di competenza Risorse e Supporto

Il Cyber Defence Campus organizza sovente incontri e conferenze nell’ambito della ciberdifesa aperte al pubblico, ove sono chiamati a parlare degli esperti dell’industria, dell’amministrazione federale o della ricerca. Quest’anno si è trattato il tema molto attuale dell’intelligenza artificiale legata alla sicurezza. Hanno partecipato in concorso anche dieci Start-up emergenti che si impegnano su questo fronte e che hanno proposto nuove tecnologie per implementare la cibersicurezza. A fine giornata, è stata nominata la start-up vincente di quest’anno. Oltre alle start-up, sono intervenuti diversi esperti del settore. Di seguito vi proponiamo tre brevi estratti di tre discorsi che sono stati affrontati nel corso della giornata.
Pratiche responsabili dell’IA
Durante questa giornata diversi esperti hanno preso parola. Tra questi, Christoph Nicolais, CEO di Kudelsky, ha aperto le danze. Egli ha parlato dell’importanza di adottare l’IA a livello svizzero, usandola con responsabilità. Secondo il CEO di una delle più grande aziende di sicurezza svizzere, l’IA, come Chat GPT, vanno integrate e adottate per riuscire in modo più efficiente in svariate tasks a livello aziendale. Non solo: infatti l’intelligenza artificiale andrebbe anche integrata a livello scolastico, fornendo ai ragazzi in giovane età (i quali sono confrontati con contenuti generati dall’IA ogni giorno) una spiegazione sul suo funzionamento e sui rischi associati ad essa; bisognerebbe inoltre lavorare su una Policy e incoraggiare e sostenere le Start-up che lavorano con e sull’IA per arrivare a delle pratiche responsabili.
La digitalizzazione delle forze armate includerà anche l’IA
Anche il Capo delle Forze Armate svizzere, Thomas Süssli, ha preso parola, spiegando che dal 2019 l’esercito si sta impegnando per definire i suoi primi passi verso una digitalizzazione delle forze armate con una particolare attenzione verso la sicurezza. «Se qualcuno oggi dovesse attaccarci, probabilmente ci attaccherebbe a livello di infrastrutture», questo vuole dire che bisogna «essere invisibili». Gli ambiti in cui le forze armate vorrebbero applicare l’IA sono la logistica, il mondo ciber e quello delle simulazioni. Per ora l’esercito ha in programma di attuare una digitalizzazione che vuole includere anche l’IA. A tal proposito verrà rilasciata una pubblicazione il 25 gennaio 2024 che spiegherà la futura strategia di digitalizzazione. Quello che però è già stato sottolineato è che per l’esercito svizzero l’uomo sarà sempre presente nei processi decisionali che non saranno lasciati in mano all’IA.
La chiave è l’Explainability
Nel pomeriggio, il professore Dr. Philippe Cudré-Mauroux dell’Università di Friborgo ha invece tenuto un importante discorso su quanto l’AI sia fantastica ma al tempo stesso fallimentare. Tre bias per dimostrare questa affermazione sono stati spiegati mediante esempio: l’Overfitting, il Biased training Data e l’Hallucinations. Questi bias si presentano a livello di Machine Learning (ovvero il momento in cui un’IA viene allenata per poter svolgere un determinato compito, inserendo dei dati da cui quest’intelligenza deve imparare). Un esempio citato, ovvero quello del Biased training Data, è del caso Amazon, che ha deciso di lasciare all’IA il compito di selezionare i migliori CV ricevuti per una posizione lavorativa aperta. Il problema è che i dati/CV inseriti nel processo di ML erano vecchi CV e appartenenti unicamente a uomini bianchi. Questo ha portato conseguentemente l’IA a selezionare tra le candidature del nuovo posto di lavoro (in base ai criteri di «successo» appresi) unicamente uomini bianchi, tralasciando donne e altre minoranze.
Secondo il professore, le tre problematiche citate, rimarranno per sempre, poiché «intrinseche al Deep Learning». Questo perché i modelli con i quali si svolge un processo di ML sono stocastici; i dati inseriti sono moltissimi (su larga scala) e non qualitativi e perché l’IA è generativa (cioè i nuovi contenuti vengono generati dai vecchi). La soluzione è quindi puntare sull’Explainability: ovvero affidarci all’uomo, o meglio a degli esperti, i quali sono indispensabili per predire gli errori dell’IA e per riuscire a interpretare e dare una spiegazione a quello che l’IA è in grado di fornirci.
