Le ciberminacce dell’intelligenza artificiale generativa
Dall’inizio dell’anno, l’intelligenza artificiale (IA) generativa è finita al centro dell’interesse pubblico: i modelli linguistici commerciali come ChatGPT e l’integrazione di OpenAI in Microsoft Bing hanno generato entusiasmo per le loro potenziali capacità, ma al tempo stesso anche timori rispetto a un loro possibile abuso.
Michiel Lüchinger, Andrea Thäler, settore specialistico Cybersicurezza e Data Science, settore di competenza armasuisse Scienza e tecnologia
Nel quadro di un monitoraggio tecnologico del Cyber-Defence Campus di armasuisse Scienza e tecnologia è stato redatto uno studio che fornisce – per quanto riguarda la Svizzera – una panoramica su sviluppi, livello tecnico e implicazioni dei modelli linguistici generativi, noti anche come Large Language Models (LLM).
I modelli linguistici generativi sfruttano complessi modelli matematici per dar forma a contenuti testuali. Questa tecnologia vanta un gran numero di campi d’applicazione, quali per esempio la correzione e la generazione di testi, così come le possibilità di interazione con un chatbot IA. Lo studio recentemente pubblicato dal Cyber-Defence Campus in collaborazione con Effixis SA, Politecnico federale di Losanna (EPFL), HEC Lausanne e HES-SO Valais-Wallis consente di gettare uno sguardo approfondito sullo sviluppo e sui rischi degli LLM per l’industria, l’amministrazione pubblica e il settore scientifico in Svizzera.
La comprensione degli LLM è radicalmente diversa dalla comprensione linguistica umana. L’intelligenza artificiale non distingue tra lettere, parole o frasi nel modo in cui queste vengono interpretate dalle persone. Per contro, i modelli linguistici utilizzano calcoli probabilistici e reti neurali per scoprire come gli elementi testuali vengono combinati fra loro. Sfruttando grandi volumi di testo come materiale di addestramento è possibile calcolare la probabilità con cui un determinato elemento di testo segue a un altro. Gli LLM non dispongono tuttavia di una logica propria, motivo per cui è sempre necessario analizzarne i risultati con spirito critico. Nonostante abbiano il potenziale per rivoluzionare lo scambio di informazioni e conoscenze, questi modelli linguistici celano anche notevoli rischi.
I rischi dei modelli linguistici di grandi dimensioni
Da un lato, gli LLM possono generare informazioni errate se vengono addestrati sulla base di dati preconcetti, dall’altro la tecnologia può essere anche impiegata per campagne attive di disinformazione. L’uso dei social network per le operazioni d’informazione presupponeva finora una profonda comprensione delle diverse lingue, delle culture e degli avvenimenti locali. Gli LLM consentono di aggirare tali requisiti poiché permettono di generare in breve tempo in tutte le lingue testi di alta qualità e adeguati al contesto. Ciò consente ad attori malintenzionati non solo di influenzare la formazione delle opinioni sulle piattaforme pubbliche, ma per esempio anche di diffondere messaggi phishing dal contenuto autentico. Non è escluso che in futuro gli LLM dispongano dei dati necessari a un addestramento finalizzato alla comprensione e alla produzione di testi anche in svizzero tedesco. Da ciò potrebbe derivare un ulteriore potenziale di pericolo per la Svizzera.
Gli LLM richiedono un monitoraggio continuo
Oltre alla disinformazione, anche la pubblicazione di informazioni private rappresenta una potenziale minaccia. Gli LLM non vengono addestrati solo con dati pubblici disponibili in Internet, ma indirettamente anche tramite gli input forniti al sistema da parte degli utenti. Per questo motivo, quando si utilizzano questi modelli linguistici non dovrebbero essere inseriti dati personali. I motori di ricerca potenziati con gli LLM consentono inoltre di scandagliare Internet in maniera più efficiente e approfondita. In questo modo è possibile rendere accessibili informazioni «nascoste», come banche dati o codici di programmazione nel cosiddetto Deep Web, ossia la parte di Internet non ben indicizzata e che pertanto non è individuabile tramite un normale motore di ricerca.
In sintesi, è possibile affermare che grazie all’impiego dei modelli linguistici di grandi dimensioni molte delle minacce del ciberspazio già note sono diventate più facilmente accessibili e meglio scalabili. Per proteggersi dall’abuso di questa tecnologia, è necessario monitorare costantemente l’impiego degli LLM, mettere al corrente la popolazione dei rischi che ne conseguono ed evitare l’immissione di informazioni private. L’analisi dettagliata del panorama degli LLM, così come delle relative limitazioni e dei rischi per la ciberdifesa svizzera, è reperibile nello studio completo.
Il Cyber-Defence Campus monitora gli LLM e i rischi a essi collegati da diversi anni. Sono già in corso vari programmi mirati a sviluppare soluzioni che possano ridurre i rischi di questo sviluppo tecnologico.
