Cybermenaces de l’intelligence artificielle générative
L’intelligence artificielle (IA) générative est au centre de l’attention du public depuis le début de l’année. Les modèles de langage commerciaux tels que ChatGPT et l’intégration d’OpenAI dans Microsoft Bing ont suscité à la fois de l’enthousiasme pour leurs capacités potentielles et des inquiétudes quant à leur utilisation abusive.
Michael Lüchinger, Andrea Thäler, domaine spécialisé Cybersécurité et Data Science, domaine de compétences armasuisse Sciences et technologies
Dans le cadre d’un monitoring technologique du Cyber-Defence Campus, armasuisse Science et technologies, une étude a été rédigée pour fournir un aperçu des développements, de l’état de la technique et des implications des modèles de langage génératifs, également connus sous le nom de Large Language Models (LLM), pour la Suisse.
Les modèles de langage génératifs utilisent des modèles mathématiques complexes pour modéliser le contenu des textes. Cette technologie possède une multitude de domaines d’application, comme la correction et la génération de textes ainsi que les possibilités d’interaction avec un chatbot IA. L’étude récemment publiée par le Cyber-Defence Campus en collaboration avec Effixis SA, l’École Polytechnique Fédérale de Lausanne (EPFL), HEC Lausanne et HES-SO Valais-Wallis donne un aperçu détaillé du développement et des risques des LLM pour l’industrie, l’administration publique et la science en Suisse.
La compréhension des LLM est fondamentalement différente de la compréhension humaine du langage. L’IA ne fait pas la différence entre les lettres, les mots ou les phrases tels qu’ils sont interprétés par les humains. Au lieu de cela, les LLM utilisent des calculs de probabilité et des réseaux neuronaux pour comprendre comment les éléments de texte sont combinés entre eux. En utilisant de grandes quantités de textes comme matériel d’entraînement, il est possible de calculer la probabilité qu’un élément de texte donné soit suivi d’un autre. Les LLM ne disposent toutefois pas d’une logique propre, raison pour laquelle leurs résultats doivent toujours être soumis à un examen critique. Bien que les LLM aient le potentiel de révolutionner l’échange d’informations et de connaissances, ils comportent également des risques considérables.
Les risques des Large Language Models
D’une part, les LLM peuvent générer des informations erronées sur la base de données d’entraînement biaisées, et d’autre part, la technologie peut également être utilisée à mauvais escient pour des campagnes de désinformation. Jusqu’à présent, l’utilisation des plateformes sociales pour les opérations d’information supposait une compréhension approfondie de la langue, de la culture et des événements locaux concernés. Les LLM permettent de contourner ces conditions, car il est possible de générer rapidement des textes contextuels de grande qualité dans toutes les langues. Il est ainsi plus facile pour des personnes malveillantes non seulement d’influencer la formation de l’opinion sur des plateformes publiques, mais aussi de diffuser par exemple d’authentiques messages de phishing. Il n’est pas exclu qu’à l’avenir, les LLM disposent des données d’entraînement nécessaires pour comprendre et générer également des textes en suisse allemand. Il pourrait en résulter un danger supplémentaire pour la Suisse.
Outre la désinformation, la publication d’informations privées constitue également une menace potentielle. Les LLM ne sont pas seulement entraînés à l’aide de données d’entraînement publiques provenant d’Internet, mais aussi indirectement par les entrées des utilisatrices et utilisateurs dans le système. Il convient donc de ne pas saisir de données privées lors de l’utilisation de LLM. En outre, les moteurs de recherche améliorés par LLM permettent une recherche plus efficace et plus approfondie sur Internet. Cela permet de rendre publiques des informations « cachées » telles que des bases de données ou encore des codes de programmation dans ce que l’on appelle le Deep Web – la partie d’Internet qui n’est pas bien indexée et qui ne peut donc pas être trouvée par une recherche normale sur un moteur de recherche.
Les LLM nécessitent une surveillance permanente
En résumé, de nombreuses menaces déjà connues dans le cyberespace sont devenues plus accessibles et plus évolutives grâce à l’utilisation des LLM. Pour se protéger contre l’utilisation abusive de cette technologie, il est nécessaire de surveiller en permanence l’utilisation des LLM, d’informer la population de leurs risques et d’éviter d’injecter des informations privées. Vous trouverez l’analyse détaillée du paysage LLM ainsi que ses limites et risques pour la cyberdéfense suisse dans l’étude complète.
Le Cyber-Defence Campus surveille les LLM et les risques qui y sont liés depuis plusieurs années. Différents projets sont en cours afin de développer des solutions susceptibles de réduire les risques liés à cette évolution technologique.
