print preview Ritornare alla pagina precedente Pagina iniziale

Rilevamento automatico delle fake news mediante l’intelligenza artificiale?

Non è mai stato così facile diffondere informazioni false in modo mirato e capillare come nell’era dei social media. Per contrastare questa tendenza, gli scienziati e le scienziate del Cyber-Defence (CYD) Campus di armasuisse Scienza e Tecnologia hanno avviato progetti di ricerca per lo sviluppo di strumenti per l’individuazione automatica delle fake news. L’obiettivo di uno di questi progetti è di utilizzare l’intelligenza artificiale per identificare quei meme image-with-text che potenzialmente diffondono disinformazione.

06.10.2021 | Dr Raphael Meier, Capoprogetto scientifico, Cyber-Defence Campus

Una tastiera su cui si vedono solo le lettere F, A, K ed E e che quindi dice FAKE.

Campagne di disinformazione e formazione dell’opinione pubblica

Le campagne di disinformazione istituzionali e non, possono prendere di mira l’intera società o solo dei segmenti specifici di questa, al fine di trarre in inganno l’utenza o confonderla su un determinato argomento. Diversi attori come i servizi di intelligence stranieri, i partiti politici o le lobby possono usarle come mezzo per portare il dibattito sociale verso una determinata direzione e far valere i propri interessi. Le campagne di disinformazione non sono un fenomeno nuovo. La guerra fredda ne è un valido esempio, perché gli stati coinvolti diffondevano informazioni fuorvianti, falsificazioni o materiale di propaganda.

Le fake news nei social media

Il termine «fake news» ha fortemente segnato l’attuale panorama mediatico e politico. I social media rendono possibile una massiccia diffusione e amplificazione delle notizie pubblicate in rete. In una campagna di disinformazione mirata, i cosiddetti social bot e cyborg possono condividere informazioni false e raggiungere una rete crescente di persone reali. I social bot sono programmi automatizzati che, ad esempio, reagiscono a determinati hashtag con una risposta programmata e condividono determinati contenuti sui social media. Agiscono come comuni account di persone o aziende con una foto profilo, post e una rete interattiva. I cyborg sono account ibridi, semiautomatici, il cui utilizzo prevede anche l’intervento umano, grazie al quale traspare un approccio più autentico rispetto ai bot. Queste interazioni degli utenti, generano un’illusione di verità in merito a una certa propaganda.

A causa del progresso tecnologico, la disinformazione in rete può presentarsi sotto forme molto diverse. Esempi ben noti di disinformazione visiva sono i cosiddetti deepfake e shallowfake, significativamente diversi l’uno dall’altro per il modo in cui vengono creati. I deepfake sono contenuti mediatici modificati o falsificati come video, immagini o registrazioni audio, manipolati utilizzando l’intelligenza artificiale o i metodi di apprendimento strutturato profondo (deep-learning). Gli shallowfake, invece, vengono creati utilizzando programmi standard di elaborazione di immagini come Photoshop. Data la diffusione virale di disinformazione sui social media e la qualità dei contenuti manipolati, si rendono necessarie contromisure per poter individuare le informazioni fuorvianti nel modo più automatizzato possibile.

Una figura comica con un occhio critico. Sopra c'è scritto: "Cos'è un IWT meme?".
Esempio di un’immagine-con-testo (in inglese Image-with-Text, abbr. IWT) meme.

Progetti di ricerca CYD per identificare la disinformazione visiva

I ricercatori e le ricercatrici del CYD Campus, allo scopo di proteggere il dibattito pubblico, sono impegnati in progetti di ricerca per lo sviluppo di diversi strumenti che rendano possibile automatizzare il processo di individuazione delle notizie false in circolazione sul web. Raphael Meier, capoprogetto scientifico al CYD Campus, si dedica alla ricerca del rilevamento dei cosiddetti meme, immagine con testo (inglese: Image with Text-IWT). Questi meme su internet servono come mezzo per divulgare idee, contando su una combinazione di immagine e testo, e si distinguono per la loro caratteristica diffusione virale. Particolarmente interessanti come oggetto di studio in quanto sono un mezzo efficace per influenzare le narrazioni online, quindi vengono utilizzati spesso in campagne di disinformazione.

Il primo passo per contrastare la disinformazione prodotta dai meme consiste nel distinguerla da altri dati di immagini ampiamente disponibili sui social media. A questo scopo, è stato sviluppato un algoritmo che classifica automaticamente le immagini IWT rispetto alle immagini non-meme (per esempio foto delle vacanze, screenshot, ecc.). In pratica, l’algoritmo si basa sulle cosiddette convolutional neural networks, strumento fondamentale nel campo del deep learning. Il metodo viene provato su diversi set di dati meme IWT e non-meme e può quindi fornire una classificazione binaria dei dati di immagini appena ricevuti nelle categorie IWT meme o non-meme. Grazie alla successiva categorizzazione del contenuto e degli utenti dei meme IWT rilevati in questo modo, il progetto di ricerca in futuro punta a filtrare quei meme che potrebbero creare disinformazione visiva.

Per fare questo, è necessario in primo luogo analizzare il contenuto del meme IWT. Durante il rilevamento del contenuto, in base all’argomento e al contenuto emozionale, viene considerato se si tratti o meno di un caso di disinformazione. La disinformazione tocca spesso argomenti che producono un effetto socialmente divisivo e in tal senso possono rafforzare i sentimenti negativi (ad esempio la rabbia) nell’osservatore o nell’osservatrice. Si punta anche a una caratterizzazione degli utenti e delle utenti dei meme. E di conseguenza sarà possibile stabilire da chi viene diffuso il meme IWT. Si tratta forse di una diffusione sospetta dei meme IWT da parte di account simili a social bot? E com’è possibile stabilire l’intenzione dell’utente dietro la diffusione del meme? Ad esempio, se dietro questa divulgazione si cela la probabile intenzione di screditare una figura politica o di dividere gruppi di persone, questo può considerarsi un’indicazione di avere a che fare con una disinformazione. Questi metodi di analisi automatizzata possono ridurre drasticamente la quantità di dati di immagini da analizzare nei lavori di intelligence open source e quindi permettere ad analisti e analiste di elaborare più rapidamente le campagne di disinformazione relative alla sicurezza.

Nelle campagne di disinformazione, il contenuto dell'immagine e del testo del meme IWT è adattato per sostenere una narrazione strategica e rivolgersi alle preferenze specifiche del pubblico target. Vengono spesso utilizzati temi polarizzanti. Una selezione di meme IWT usati nelle campagne di disinformazione può essere trovata nello studio di DiResta et al. della Stanford University.

Studio della Stanford University (in inglese)