print preview Retour Aperçu, messages, manifestations

Intelligence artificielle : vers une reconnaissance automatique des fake news ?

Jamais la diffusion ciblée de fausses informations à large échelle n’a été aussi facile qu’à l’ère des réseaux sociaux. Pour contrer cette tendance, les scientifiques du Cyber-Defence (CYD) Campus d’armasuisse Sciences et Technologies ont lancé divers projets de recherche afin d’étudier les outils permettant d’identifier automatiquement les fake news. L’un de ces projets entend utiliser l’intelligence artificielle pour déceler les mèmes (image avec texte) susceptibles de propager de fausses informations.

06.10.2021 | Dr Raphael Meier, Chef de projet scientifique, Cyber-Defence Campus

Un clavier sur lequel on ne voit que les lettres F, A, K et E et qui dit donc FAKE.

Campagnes de désinformation et façonnage de l’opinion

Les campagnes de désinformation étatiques comme non étatiques peuvent cibler tant l’ensemble de la société que certains milieux spécifiques et visent à induire ces destinataires en erreur ou à les faire douter d’un sujet donné. Différents acteurs, comme les services de renseignement étrangers, partis politiques ou lobbies, peuvent recourir à cette méthode pour orienter le discours social dans une certaine direction et faire valoir leurs propres intérêts. Le phénomène des campagnes de désinformation ne date pas d’hier. La guerre froide, durant laquelle les États impliqués ont largement diffusé des informations trompeuses, des falsifications et du matériel de propagande, en est un parfait exemple.

Fausses informations sur les réseaux sociaux

Le terme « fake news » a fortement influencé le paysage médiatique et politique actuel. Les réseaux sociaux sont un véritable catalyseur en matière de diffusion et amplifient les informations publiées sur la toile. Dans le cadre de campagnes de désinformation ciblées, les fake news sont diffusées via des systèmes « social bots » et « cyborgs », ce qui permet d’atteindre un nombre croissant de personnes réelles. Les social bots sont des programmes automatisés, utilisés notamment pour réagir à certains hashtags avec une réponse préprogrammée et partager des contenus donnés sur les réseaux sociaux. Affichant une image de profil, des articles et un réseau interactif, ils se présentent comme des comptes utilisateurs ordinaires appartenant à des personnes ou entreprises. Les cyborgs sont des comptes utilisateurs partiellement automatisés et gérés par des humains, ce qui leur confère un caractère plus authentique que celui des bots. Ces interactions avec l’utilisateur créent une illusion de vérité autour des fausses informations diffusées.

Compte tenu des progrès technologiques, les fake news peuvent revêtir des formes très diverses. Les exemples de désinformation visuelle les plus connus sont les montages « deepfakes » et « shallowfakes ». Ceux-ci se différencient sensiblement par la manière dont ils sont produits. Les deepfakes désignent des contenus médiatiques modifiés ou truqués, tels que des vidéos, des photos ou des enregistrements audio, qui ont été manipulés via des méthodes d’intelligence artificielle ou d’apprentissage profond (deep learning). Les shallowfakes, quant à eux, sont créés au moyen de programmes de traitement d’image standards comme Photoshop. Compte tenu de la densité de fausses informations circulant sur les réseaux sociaux et de la qualité des contenus manipulés, des contre-mesures adéquates sont requises pour déceler, dans la mesure du possible, les informations trompeuses de manière automatique.

Un personnage comique avec un regard critique. Au-dessus, il est écrit : "Qu'est-ce qu'un mème IWT?"
Exemple de mème «image avec texte» (« Image-with-Text » abrégé « IWT » en anglais).

Projets de recherche CYD sur l’identification de la désinformation visuelle

Afin de protéger le discours public, des scientifiques du CYD Campus tentent de développer, dans le cadre de projets de recherche, différents outils utiles pour déceler automatiquement des contenus médiatiques falsifiés publiés sur Internet. Raphael Meier, chef de projet scientifique au CYD Campus, effectue des recherches sur la reconnaissance des mèmes (Image with Text, IWT). Ces mèmes Internet servent de support à la diffusion d’idées basées sur une combinaison d’images et de textes, et se distinguent par une propagation virale caractéristique. Ils constituent un sujet de recherche particulièrement intéressant, car ils offrent un moyen efficace d’influencer les récits en ligne. C’est pourquoi ils sont souvent utilisés dans les campagnes de désinformation.

La première étape pour contrer la désinformation diffusée par mèmes consiste à les différencier des autres données d’image qui abondent sur les réseaux sociaux. À cette fin, un algorithme permettant de trier automatiquement les images IWT et les images non-mèmes (photos de vacances, captures d’écran, etc.) a été mis au point. Concrètement, cet algorithme se base sur les réseaux neuronaux convolutifs (convolutional neural network), qui relèvent du domaine de l’apprentissage profond. La méthode est entraînée sur différents ensembles de données « mèmes IWT » et « non-mèmes », ce qui lui permet de classer de manière binaire les données d’image réceptionnées dans ces deux catégories. En définissant les caractéristiques du contenu et des utilisateurs de mèmes IWT ainsi détectés, le projet de recherche entend filtrer à l’avenir les mèmes susceptibles de contenir des éléments de désinformation visuelle.

Pour y parvenir, le contenu des mèmes IWT doit d’abord être examiné. Une analyse du sujet ainsi que du caractère émotionnel est réalisée lors de l’identification du contenu pour déterminer si on a affaire ou non à un cas de désinformation. La désinformation porte souvent sur des sujets qui divisent la société et de nature à accroître les sentiments négatifs associés (par ex. la colère) chez le destinataire. Les caractéristiques des utilisateurs de mèmes sont ensuite analysées afin de déterminer qui propage le mème IWT. Les mèmes IWT suspects sont-ils diffusés à partir de comptes de type social bots ? Et comment évaluer l’intention de l’utilisateur à l’origine de cette propagation ? À titre d’exemple, des mèmes susceptibles d’avoir été diffusés dans le but de discréditer une personnalité politique ou de diviser des communautés font penser à une tentative de désinformation. Ces méthodes d’analyse automatiques peuvent réduire considérablement le volume des données d’image à évaluer dans le cadre de mandats de renseignement se basant sur des sources ouvertes, ce qui permet aux analystes de traiter plus rapidement les campagnes de désinformation relatives à la sécurité.

Dans les campagnes de désinformation, le contenu des images et du texte du mème IWT est adapté pour soutenir un récit stratégique et répondre aux préférences spécifiques du public cible. Les thèmes de polarisation sociale sont souvent utilisés. Une sélection de mèmes IWT utilisés dans les campagnes de désinformation peut être trouvée dans le rapport de DiResta et al. de l'Université de Stanford

Rapport de l'Université de Stanford (en anglais)