Passare al contenuto principale

ComunicazioniPubblicato il 29 gennaio 2026

Vero o falso? Cosa ci insegna la ricerca.

Il Cyber-Defence Campus di armasuisse Scienza e tecnologia (S+T) ha pubblicato nuovi studi sulla crescente difficoltà di identificare le immagini generate dall’intelligenza artificiale (IA). Questo progetto di ricerca congiunto del Cyber-Defence Campus e della Scuola universitaria professionale della Svizzera nordoccidentale (FHNW) si concentra sull’utilizzo sempre più diffuso di immagini generate dall’IA e sugli artefatti sottili che le distinguono dalle immagini reali.

Andrea Thäler, Settore Cyberdefence, area di competenza armasuisse Scienza e Tecnologia

Ritratto sintetico di una donna con piccole irregolarità all’occhio sinistro, ai capelli, ai denti e nella forma dell’orecchio sinistro.

L’intelligenza artificiale ha rivoluzionato la creazione di immagini digitali. Di conseguenza, le immagini sintetiche e fotorealistiche sono sempre più diffuse e vengono utilizzate in diversi ambiti, per esempio nell’intrattenimento o nella pubblicità. Questa tecnologia, tuttavia, può anche favorire un uso improprio. Informazioni false o fuorvianti potrebbero infatti essere diffuse attraverso immagini che appaiono autentiche, ma che in realtà sono falsificate.

Le immagini generate dall’intelligenza artificiale diventano sempre più realistiche, rendendo via via più complessa la distinzione tra contenuti reali e sintetici. Per questo motivo, in un progetto di ricerca congiunto, il Cyber-Defence Campus e la Scuola universitaria professionale della Svizzera nordoccidentale (FHNW) hanno condotto studi sulle capacità di analisi dei moderni modelli generativi a diffusione, con particolare attenzione alle loro vulnerabilità. Il fulcro di uno studio riguarda le difficoltà nell’identificazione dei contenuti sintetici. Viene sottolineata l’importanza di individuare piccoli, ma significativi, errori come irregolarità nell’anatomia umana, nell’incidenza della luce o nella simmetria degli oggetti. Questi errori sottili, che possono sfuggire a un occhio inesperto, forniscono indicazioni importanti per distinguere le immagini generate dall’IA da quelle reali.

Negli studi viene esaminato l’uso di modelli generativi di deep learning – inclusi i modelli a diffusione – per la creazione di immagini sintetiche destinate a potenziali operazioni di inganno, influenza o infiltrazione in ambito cyber. Sebbene l’IA possa generare illustrazioni di alta qualità e contenuti visivi non realistici, la produzione di risultati pienamente fotorealistici rimane ancora estremamente complessa. Ciò è dovuto sia alle limitate capacità di calcolo sia alla necessità di un intervento umano nelle fasi di post-elaborazione. Tuttavia, la disponibilità e l’applicabilità pratica di simili strumenti suscitano preoccupazioni riguardo al loro possibile abuso, in particolare per la diffusione di disinformazione e informazioni fuorvianti, nonché per inganni digitali. Di seguito vengono presentati i risultati del secondo studio sul problema del riconoscimento delle foto sintetiche.

Indizi nascosti nelle immagini generate dall’IA

I modelli di intelligenza artificiale diventano sempre più avanzati. Tuttavia, incontrano ancora difficoltà nella generazione di alcuni dettagli. Nello studio sono stati individuati errori tipici presenti nelle immagini sintetiche, chiamati artefatti, che possono fornire importanti indizi sull’origine delle immagini stesse. Gli errori sono stati successivamente classificati in una tassonomia completa. Questi errori si verificano spesso perché i modelli generativi non sono in grado di riprodurre con precisione strutture visive complesse. Tra i problemi più frequenti rientrano:

Errori nell’anatomia umana

l’IA genera spesso mani con troppe dita o meno dita, una disposizione innaturale delle dita oppure tratti del viso asimmetrici. Anche orecchie, occhi e denti possono risultare distorti o posizionati in modo errato.

Irregolarità nell’illuminazione

Ombre e riflessi possono apparire innaturali, poiché le fonti di luce si comportano in modo diverso rispetto a un ambiente reale. Le zone di luce sul volto o sugli oggetti possono essere posizionate in modo scorretto, creando così un’impressione di artificialità.

Mancanza di simmetria

Gli oggetti possono essere leggermente deformati o disposti in modo errato, facendo apparire asimmetrici elementi che normalmente sono simmetrici – per esempio specchietti retrovisori diversi su un veicolo –, oppure strutture ripetitive che possono essere rappresentate in modo incoerente, quali ringhiere o recinzioni con spaziature irregolari.

Anche se questi errori possono inizialmente passare inosservati, diventano evidenti a un’osservazione più attenta. Dal momento che le immagini generate dall’IA continuano a migliorare, è necessario sensibilizzare sia i professionisti sia il pubblico a riconoscere queste sottili sfumature, per poter distinguere tra contenuti autentici e contenuti sintetici.

Perché la formazione e la sensibilizzazione sono importanti

La formazione e la sensibilizzazione sono fondamentali per contrastare i rischi legati alle immagini sintetiche. Nello studio si raccomanda di formare in modo specifico i professionisti dei settori del giornalismo, dell’analisi delle notizie e della forensica digitale, affinché possano riconoscere meglio i contenuti generati dall’intelligenza artificiale. Anche la sensibilizzazione del grande pubblico alla generazione di immagini sintetiche può contribuire a ridurre la diffusione di disinformazione e manipolazioni.

Evitare distorsioni nell’analisi delle immagini

Nell’analisi delle immagini possono verificarsi due tipi principali di errori: i cosiddetti falsi positivi si riscontrano quando immagini reali vengono erroneamente identificate come artificiali, mentre i falsi negativi sono immagini generate dall’IA che vengono erroneamente considerate autentiche. Tali errori possono causare disinformazione, sfiducia e gravi conseguenze in ambiti come il giornalismo, il diritto e la ricerca. I bias cognitivi, in particolare il bias di conferma, possono distorcere ulteriormente l’analisi e indurre a individuare erroneamente presunti artefatti o a trascurare segnali evidenti di manipolazione. La frequenza di questi errori può essere ridotta adottando un approccio sistematico e imparziale e utilizzando strumenti di rilevamento moderni. È inoltre importante sensibilizzare gli analisti di immagini sugli effetti dei bias cognitivi nella verifica delle immagini.

Applicazione pratica dei risultati dello studio

Le immagini generate dall’intelligenza artificiale vengono utilizzate già oggi per manipolare l’opinione pubblica, i mercati finanziari e persino eventi politici. Le immagini falsificate possono servire a diffondere informazioni errate e a creare confusione e sfiducia. Le contromisure potrebbero consistere nello sviluppo di nuove tecnologie di rilevamento e in un miglioramento dell’educazione dei media. I documenti e i risultati dello studio potrebbero essere utilizzati per le seguenti finalità:

  • sostenere programmi educativi e di formazione nei settori della forensica digitale, dell’analisi delle notizie e del giornalismo;
  • esaminare sistematicamente le immagini alla ricerca di indizi di generazione tramite IA;
  • supportare campagne di educazione dei media;
  • elaborare nuove linee guida e normative per prevenire l’uso improprio delle immagini sintetiche;
  • stimolare nuove ricerche sulla rilevazione automatica delle immagini generate dall’intelligenza artificiale.

Prospettiva FHNW

Alla FHNW studiamo l’intelligenza artificiale in contesti in cui una ricerca rigorosa si confronta con sfide pratiche. Come ricercatori, siamo allo stesso tempo affascinati e preoccupati dai recenti progressi nell’IA e dai potenziali effetti sulla nostra società. Il CYD Campus sostiene la ricerca relativa a queste questioni importanti con finanziamenti e riunisce professionisti di diversi settori per guidare progetti con rilevanza pratica. Siamo orgogliosi di aver potuto studiare le debolezze dell’IA generativa e sviluppare insieme un workflow per i professionisti, volto a identificare le immagini sintetiche come tali. Il nostro ringraziamento va a tutti coloro che hanno contribuito al successo di questo progetto, in particolare a Raphael Meier, che ci ha supportato con la sua approfondita competenza e con l’efficace utilizzo del suo network, riuscendo a connettere scienza e pratica.

Immagini sintetiche di veicoli HIMARS. Entrambe le immagini sono state generate con ControlNet, utilizzando le strutture dei contorni di immagini reali come riferimento. L’immagine (A) è stata generata con il prompt: «Foto di un veicolo HIMARS su una strada ghiaiosa con bel tempo e cielo azzurro», mentre l’immagine (B) con l’istruzione: «Foto di un HIMARS in un grande bunker militare con strutture ben definite e poca luce».

Ulteriori informazioni: