Cyber Bedrohungen der generativen künstlichen Intelligenz
Generative künstliche Intelligenz (KI) ist seit Beginn dieses Jahres in den Mittelpunkt des öffentlichen Interesses gerückt. Kommerzielle Sprachmodelle wie ChatGPT und die Integration von OpenAI in Microsoft Bing haben sowohl Begeisterung für ihre potenziellen Fähigkeiten als auch Bedenken hinsichtlich ihres Missbrauchs hervorgerufen.
Michiel Lüchinger, Andrea Thäler, Fachbereich Cybersicherheit und Data Science, Kompetenzbereich armasuisse Wissenschaft und Technologie
Im Rahmen eines Technologie Monitorings des Cyber-Defence Campus, armasuisse Wissenschaft und Technologie, wurde eine Studie verfasst, die einen Überblick über die Entwicklungen, den Stand der Technik und die Implikationen von generativen Sprachmodellen, auch als Large Language Models (LLMs) bekannt, für die Schweiz gibt.
Generative Sprachmodelle nutzen komplexe mathematische Modelle, um Textinhalte zu modellieren. Diese Technologie besitzt eine Vielzahl von Anwendungsbereichen, wie zum Beispiel das Korrigieren und Generieren von Texten sowie die Interaktionsmöglichkeiten mit einem KI Chatbot. Die kürzlich erschienene Studie des Cyber-Defence Campus in Zusammenarbeit mit Effixis SA, École Polytechnique Fédérale de Lausanne (EPFL), HEC Lausanne und HES-SO Valais-Wallis gibt einen detaillierten Einblick in die Entwicklung und Risiken von LLMs für Industrie, öffentliche Verwaltung und Wissenschaft in der Schweiz.
Das Verständnis von LLMs unterscheidet sich grundlegend vom menschlichen Sprachverständnis. KI unterscheidet nicht zwischen Buchstaben, Wörtern oder Sätzen, wie sie von Menschen interpretiert werden. Stattdessen verwenden LLMs Wahrscheinlichkeitsrechnungen und neuronale Netzwerke, um herauszufinden, wie Textbausteine miteinander kombiniert sind. Indem grosse Mengen an Text als Trainingsmaterial genutzt werden, kann die Wahrscheinlichkeit berechnet werden, mit der ein bestimmter Textbaustein auf einen anderen folgt. LLMs verfügen jedoch nicht über eine eigene Logik, weshalb ihre Ergebnisse stets kritisch hinterfragt werden müssen. Obwohl LLMs das Potenzial haben, den Informations- und Wissensaustausch zu revolutionieren, bergen sie auch wesentliche Risiken.
Die Risiken von Large Language Models
LLMs können einerseits Fehlinformationen generieren auf Basis voreingenommener Trainingsdaten, andererseits kann die Technologie auch für aktive Desinformationskampagnen missbraucht werden. Die Nutzung sozialer Plattformen für Informationsoperationen setzte bisher ein tiefes Verständnis der jeweiligen Sprache, Kultur und lokalen Ereignisse voraus. Durch LLMs können diese Voraussetzungen umgangen werden, da in kurzer Zeit qualitativ hochwertige und kontextbezogene Texte in sämtlichen Sprachen generiert werden können. Dies erleichtert es böswilligen Akteuren nicht nur, die Meinungsbildung auf öffentlichen Plattformen zu beeinflussen, sondern beispielsweise auch authentische Phishing-Nachrichten zu verbreiten. Es ist nicht ausgeschlossen, dass LLMs in Zukunft über die notwendigen Trainingsdaten verfügen, um auch schweizerdeutsche Texte zu verstehen und zu generieren. Daraus könnte sich ein weiteres Gefahrenpotenzial für die Schweiz ergeben.
Neben Desinformation stellt auch die Veröffentlichung privater Informationen eine potenzielle Bedrohung dar. LLMs werden nicht nur mit öffentlichen Trainingsdaten aus dem Internet trainiert, sondern auch indirekt durch die Benutzereingaben in das System. Daher sollten bei der Verwendung von LLMs keine privaten Daten eingegeben werden. Zudem ermöglichen LLM-erweiterte Suchmaschinen eine effizientere und tiefere Durchsuchung des Internets. Damit können «versteckte» Informationen wie Datenbanken oder Programmiercode im sogenannten Deep Web – dem Teil des Internets, der nicht gut indexiert und daher über eine normale Suchmaschinensuche nicht auffindbar ist – öffentlich gemacht werden.
LLM erfordern eine kontinuierliche Überwachung
Zusammenfassend lässt sich sagen, dass viele der bereits bekannten Bedrohungen im Cyberraum durch den Einsatz von LLMs leichter zugänglich und besser skalierbar geworden sind. Um sich vor dem Missbrauch dieser Technologie zu schützen, ist es notwendig, den Einsatz von LLMs kontinuierlich zu überwachen, die Bevölkerung über deren Risiken aufzuklären und die Einspeisung von privaten Informationen zu vermeiden. Die detaillierte Analyse der LLM Landschaft sowie deren Limitierungen und Risiken für die Schweizer Cyberabwehr finden Sie in der vollständigen Studie.
Der Cyber-Defence Campus überwacht LLMs und die damit verbundenen Risiken seit mehreren Jahren. Verschiedene Projekte sind im Gange, um Lösungen zu entwickeln, die die Risiken dieser technologischen Entwicklung reduzieren können.
