La sécurité à l’ère de l’IA : opportunités et risques
Le Campus cyberdéfense (CYD-Campus) a été lancé en 2019, sur la proposition d’armasuisse Science et technologie, dans le but de réunir non seulement l’administration fédérale, mais aussi l’industrie et la science autour des questions liées aux développements numériques et à la cybersécurité. Cette année, la conférence du CYD s’est déroulée au Kursaal de Berne le 26 octobre 2023 sur le thème « La sécurité à l’ère de l’intelligence artificielle : opportunités et risques ».
Gervasoni Anna, Domaine specialisé Communication, Domaine de compétence Ressources et Support

Le Campus cyberdéfense (CYD-Campus) organise régulièrement des rencontres et des conférences ouvertes au public dans le domaine de la cyberdéfense, au cours desquelles des expert·es de l’industrie, de l’administration fédérale ou de la recherche sont appelé·es à s’exprimer. Cette année, le thème très actuel de l’intelligence artificielle liée à la sécurité a été abordé. Dix start-ups émergentes travaillant dans ce domaine et proposant de nouvelles technologies pour mettre en œuvre la cybersécurité ont également participé et à la fin de la journée, la start-up gagnante de cette année a été désignée. En plus des start-ups, plusieurs experts du secteur ont pris la parole. Vous trouverez ci-dessous trois courts extraits de trois discours prononcés au cours de la journée.
Pratiques responsables en matière d’IA
Au cours de cette journée, plusieurs expert·es sont intervenu·es. Christoph Nicolais, CEO de Kudelsky, a ouvert la danse. Il a parlé de l’importance d’adopter l’IA au niveau suisse et de l’utiliser de manière responsable. Selon le PDG de l’une des plus grandes entreprises de sécurité de Suisse, l’IA, comme le Chat GPT, doit être intégrée et adoptée afin d’accomplir plus efficacement diverses tâches en entreprise. De plus, l’intelligence artificielle devrait également être intégrée au niveau scolaire, en expliquant aux jeunes enfants (qui sont confrontés chaque jour à des contenus générés par l’IA) comment elle fonctionne et quels sont les risques qui y sont associés ; nous devrions également travailler sur une politique qui encourage et soutient les start-ups qui travaillent avec et sur l’IA pour parvenir à des pratiques responsables.
La numérisation des forces armées inclura également l’IA
Le chef de l’armée suisse, Thomas Süssli, a également pris la parole, expliquant qu’à partir de 2019, l’armée travaille à définir ses premiers pas vers une numérisation des forces armées en mettant l’accent sur la sécurité. «Si quelqu’un devait nous attaquer aujourd’hui, il le ferait probablement au niveau de l’infrastructure», ce qui signifie que nous devons «être invisibles». Les domaines dans lesquels les forces armées souhaitent appliquer l’IA sont la logistique, le cybermonde et les simulations. Pour l’instant, l’armée prévoit de mettre en place une numérisation qui veut aussi inclure l’IA. À cet égard, une publication sera diffusée le 25 janvier 2024, qui expliquera la future stratégie de numérisation des forces armées. Ce qui a déjà été souligné, cependant, c’est que pour l’armée suisse, l’homme sera toujours présent dans les processus de décision qui ne seront pas laissés que dans les mains de l’IA.
L’explainability est décisive
L’après-midi, le professeur Philippe Cudré-Mauroux, de l’université de Fribourg, a présenté un exposé important soulignant en quoi l’IA est fantastique, mais en même temps un échec. Pour illustrer cette affirmation, trois biais ont été expliqués à l’aide d’exemples : le Overfitting, le Biased Training Data et les Hallucinations. Ces biais se produisent au niveau de l’apprentissage automatique (c’est-à-dire lorsqu’une IA est entraînée à effectuer une certaine tâche en saisissant des données à partir desquelles cette intelligence doit apprendre). Un exemple cité, celui de Biased Training Data, peut être représenté par Amazon, qui a décidé de laisser l’IA sélectionner les meilleurs CV reçus pour un poste à pourvoir. Le problème était que les données/CV saisis dans le processus de ML étaient d’anciens CV et appartenaient uniquement à des hommes blancs. L’IA a donc sélectionné parmi les candidatures pour le nouveau poste (sur la base des critères de «réussite» appris) uniquement des hommes blancs, laissant de côté les femmes et les autres minorités.
Selon le professeur, les trois problèmes mentionnés ne disparaîtront jamais, car ils sont «intrinsèques au Deep Learning». En effet, les modèles avec lesquels un processus de ML est réalisé sont stochastiques, les données introduites sont très nombreuses (à grande échelle) et non qualitatives, et l’IA est générative (c’est-à-dire qu’un nouveau contenu est généré à partir d’un ancien contenu). La solution consiste donc à se concentrer sur l’Explainability (explicabilité), c’est-à-dire à s’appuyer sur des humains, ou plutôt des expert·es, qui sont indispensables pour prédire les erreurs de l’IA, mais aussi pour interpréter et expliquer ce que l’IA est capable de fournir.
