Wie Cyberkriminelle mit generativer KI ihre Angriffe skalieren
Fragt man Experten, wie sich KI auf die globale Wirtschaft auswirken wird, erreichen die Prognosen schnell astronomische Höhen:
Generative KI könnte der Weltwirtschaft jährlich bis zu 4,4 Billionen US-Dollar einbringen, schätzen etwa die Experten von McKinsey. PwC beziffert die bis 2030 möglichen Mehreinnahmen durch KI weltweit sogar mit 15,7 Billionen US-Dollar – mehr als die aktuelle Wirtschaftsleistung Chinas und Indiens zusammengenommen.
Begründet werden die enormen Wachstumspotenziale mit den erheblichen Produktivitätssteigerungen, die KI ermöglicht und die sich Business-Leader auf der ganzen Welt auf keinen Fall entgehen lassen möchten. Generative KI-Anwendungen wie ChatGPT, Midjourney und GitHub Copilot ermöglichen es Unternehmen, ihre Produktivität nachhaltig zu erhöhen, Innovationen schneller auf den Weg zu bringen und ihre Effizienz zu steigern.
„Wir leben in einer aufregenden Zeit. KI eröffnet uns ganz neue Möglichkeiten, um unsere Unternehmen noch erfolgreicher zu machen und unsere Ziele und Visionen umzusetzen. Aber die Kehrseite der Medaille ist, dass KI auch mit Risiken einhergeht“, erklärte Okta CEO Todd McKinnon im Oktober 2023 auf dem Axios Roundtable „The Future of Cybersecurity in the AI Era“.
Wie diese Kehrseite genau aussieht, offenbart ein Blick auf die neue Welt der Cyberkriminalität. Ähnlich wie legitime Unternehmen nutzen auch die Angreifer generative KI, um zu skalieren und ihre Produktivität zu steigern.
Inzwischen reichen Cyberkriminellen weniger als 3 Sekunden einer Sprachnachricht, um mithilfe generativer KI die Stimme eines Menschen zu klonen. Auf diese Weise gaukeln sie Angehörigen vor, ein geliebter Mensch sei verletzt worden oder stecke in Schwierigkeiten oder überreden Bankmitarbeiter dazu, Überweisungen vom Konto ihres Opfers zu tätigen. Generative KI-Anwendungen werden heute zudem immer öfter missbraucht, um Deepfakes von Prominenten anzufertigen. Diese täuschend echten Videos und Fotografien nutzen die Verbrecher dann, um arglose Fans zu betrügen.
Neben diesen neuen kriminellen Ansätzen kommt KI auch bei vielen Klassikern der Cybercrime-Szene zum Einsatz. Das Phishing etwa ist ein Social-Engineering-Angriff, der fast so alt ist wie das Internet selbst – und der nun wieder ganz neuen Aufwind bekommt. Allein 2022 nahm die Zahl der Phishing-Attacken im Vergleich zum Vorjahr um 47 % zu, berichtet etwa Zscaler. Eine der wichtigsten Technologien hinter diesen Zuwachsraten? Generative KI.
„Die jederzeit über dunkle Kanäle verfügbaren Phishing-Kits und Chatbot-KI-Tools wie ChatGPT machen es Angreifern leichter denn je, in kurzer Zeit individualisierte Phishing-Kampagnen zu entwickeln“, so der Report.
Warum nehmen durch generative KI unterstützte Angriffe zu?
Mit generativer KI wird es für Cyberkriminelle wesentlich einfacher, Menschen und Unternehmen um ihr Geld und ihre Daten zu bringen. Das Zusammenspiel aus günstigen, bedienfreundlichen Tools, Unmengen öffentlich verfügbarer Daten (z. B. Fotos, Sprachnachrichten, persönlichen, auf sozialen Medien geteilten Daten) und wesentlich höherer Rechenleistung für die Verarbeitung dieser Daten hat zu einer dramatischen Expansion der Bedrohungslandschaft geführt. Selbst Angreifer ohne jegliche Coding-, Design- und Text-Kenntnisse können binnen weniger Sekunden professionelle Phishing-Kampagnen entwerfen. Sie müssen nur wissen, wie man Prompts verfasst: Sei es, indem sie Anweisungen in natürlicher Sprache in ein KI-gestütztes Large Language Model (LLM) wie ChatGPT eingeben oder indem sie mithilfe eines Text-to-Image-Modells wie StableDiffusion ganz neuen Content generieren.
Die umfassenden Automatisierungsfunktionalitäten der KI erlauben es den Angreifern außerdem, ihre Angriffe – etwa Phishing-Kampagnen, die lange Zeit mit einem hohen manuellen Aufwand und hohen Kosten einhergingen – sehr einfach zu skalieren. Nachdem die Zahl der Angriffe so rapide steigt, nimmt auch die Wahrscheinlichkeit, dass ein Angriff zum Erfolg führt, rasant zu. Die Früchte dieser Aktivitäten fließen dann umgehend in noch raffiniertere Attacken.
Was bedeutet die KI-gestützte Cyberkriminalität für die Wirtschaft?
Die exakten Kosten KI-gestützter Angriffe zu beziffern, ist schwierig. Bedenken Sie aber Folgendes: Im Jahr 2015 schätzte CyberSecurity Ventures die jährlichen Kosten durch Cyberkriminalität weltweit auf rund 3 Billionen US-Dollar. Vergleichen wir das nun mit deren Report vom Oktober 2023 : „Wir gehen davon aus, dass die weltweiten Schäden durch Cyberkriminalität in den kommenden beiden Jahren um 15 Prozent pro Jahr steigen und bis 2025 10,5 Billionen US-Dollar jährlich erreichen werden.“ Generative KI ist einer der Treiber hinter diesem Trend.
Auch die amerikanische Regierung teilt die Bedenken rund um KI. Am 30. Oktober 2023 erließ President Joe Biden daher die Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence.
„Die Fähigkeiten der KI entwickeln sich weiter, mit immer schwerwiegenderen Implikationen für die Sicherheit und den Schutz der Amerikaner. Mit dieser Executive Order bringt der Präsident die umfassendsten jemals umgesetzten Maßnahmen auf den Weg, um die Amerikaner vor den möglichen Gefahren KI-basierter Systeme zu schützen“, so das Weiße Haus in seiner Stellungnahme.
Auch die Bedenken der Verbraucher nehmen zu. Der Anteil erwachsener Amerikaner, die angeben, sie seien „sehr besorgt“, dass ihre Daten gehackt und von Unternehmen, bei denen sie regelmäßig Kunde sind, gestohlen werden könnten, stieg im Oktober 2023 auf 41 %. Der Quartalsdurchschnitt lag bis Ende 2022 noch bei 36 %, so CivicScience. Mit Blick auf die KI geben 52 % der Amerikaner an, sie seien über die zunehmende Nutzung der Technologie im Alltag „eher besorgt als erfreut“, so eine im August 2023 vom Pew Research Center durchgeführte Umfrage.
Die Einsätze sind also hoch – mit Blick auf die wirtschaftlichen Folgen und auf das Vertrauen der Kunden. Daher ist es für Unternehmen, aber auch für jeden Einzelnen von zentraler Bedeutung, darüber informiert zu bleiben, wie generative KI für Angriffe missbraucht wird.
Im Folgenden erfahren Sie mehr darüber, wie Angreifer generative KI verwenden, um ihre Angriffe zu skalieren, was die Zukunft bringen wird und wie Sie sich vor diesen Risiken schützen können.
Warum macht generative KI Cyberkriminelle smarter und schneller?
Künstliche Intelligenz mag nicht neu sein, doch die unbeschränkte Verfügbarkeit leistungsfähiger generative KI-Anwendungen für die breite Öffentlichkeit ist es. Seit Open AI im November 2022 ChatGPT veröffentlichte, beobachten wir immer wieder, wie diese mächtige Technologie für legitime und für kriminelle Zwecke genutzt wird.
Voice-Cloning
Es gab eine Zeit, da wurde sprachbasierte Authentisierung als die nächste große Technologie zur sicheren Identifizierung gehandelt. Aber das dürfte sich erledigt haben, seit wir wissen, wie einfach Voice-Cloning mit generativer KI ist. Wie bereits erwähnt brauchen Angreifer lediglich einen kurzen Audio-Clip, um eine Stimme täuschend echt zu replizieren – und den Klon ganz natürlich alles sagen zu lassen, was man hören möchte. Wie nah diese Klone heute an der Wirklichkeit sind? Im Mai 2023 brachten Whitehat-Hacker mit dem Voice-Klon eines „60 Minutes“-Korrespondenten einen Mitarbeiter der Show in nur fünf Minuten dazu, sensible Informationen preiszugeben – und das vor laufender Kamera. Kein Wunder also, dass mit Hochdruck an Lösungen gearbeitet wird, um diese Manipulationen zu unterbinden: Okta veröffentlichte jüngst ein Patent zur Erkennung KI-generierter Stimmen.
Manipulation von Bildern und Videos
Gayle King, Tom Hanks, MrBeast: Das sind nur einige der Prominenten, die jüngst Schlagzeilen machten – und das nicht mit Blick auf ihre eigenen Projekte. Im Herbst tauchten KI-generierte Deepfakes dieser Prominenten im Internet auf – und wurden von Scammern missbraucht, um die arglose Öffentlichkeit zu täuschen. Dabei steht wohlgemerkt nicht nur der gute Name des jeweiligen Prominenten auf dem Spiel: Deepfakes verschleiern die Wahrheit und verursachen Chaos und Unsicherheit, wo Tatsachen am allerwichtigsten wären, zum Beispiel: vor den Augen der weltweiten Öffentlichkeit oder im Gerichtssaal. Und weil heute unzählige relativ günstige und bedienfreundliche generative KI-Technologien verfügbar sind, ist auch die Erstellung von Deepfakes einfach und billig.
Erstellung von Texten
Früher war es relativ leicht, eine Phishing-E-Mail als solche zu erkennen: Steckte die Nachricht voller Grammatik- und Kommafehler? Dann handelte es sich mit hoher Wahrscheinlichkeit um einen Betrugsversuch. Aber im Zeitalter der KI sollte niemand mehr auf solche einfachen Signale hoffen. Generative KI ist in der Lage überzeugende und fehlerfreie Texte in unzähligen Sprachen zu erstellen – beste Voraussetzungen für großangelegte, raffinierte und personalisierte Phishing-Kampagnen.
Code-Erstellung
Das Motto „Mit weniger Aufwand mehr erreichen“ gilt bei der generativen KI nicht nur für das Potenzial der Workforce. Sondern auch für praktisches Wissen. Generative KI ist in der Lage, Code und Scripts zu entwickeln, und eröffnet damit auch Cyberkriminellen ohne Programmierkenntnisse die Möglichkeit, eigene Angriffe zu entwickeln und zu starten. Diese niedrige Einstiegshürde ist in zweifacher Hinsicht gefährlich: Zum einen, weil dadurch wesentlich mehr Menschen in die Cyberkriminalität driften können, und zum anderen, weil diese Technologie den Angreifern viel Arbeit abnimmt.
Knacken von Passwörtern
Passwörter haben ein Problem: Sie werden von Menschen generiert und von Menschen verwendet. Datenschutz-Experten ermahnen die breite Öffentlichkeit schon seit Jahren, ausschließlich starke Passwörter zu nutzen und sie nicht mehrfach zu verwenden. Trotzdem war das Wort Passwort im Jahr 2022 das am häufigsten genutzte Passwort, berichtet NordPass. Viele Menschen entscheiden sich zudem für Passwörter, die für sie eine besondere Bedeutung haben (vielleicht ihr favorisierter Fußballverein oder ihre Lieblingsband) und verwenden diese Passwörter wieder und wieder für unterschiedlichste Webseiten. Das sind genau die Informationen, die Hacker für Brute-Force- Angriffe brauchen. Aber was früher ein manuelles und zeitaufwändiges Ratespiel war, ist mit ein wenig Unterstützung der Large Language Models (LLMs) – einer Unterkategorie der generativen KI – jetzt ungleich einfacher. Die Systeme lernen aus frei verfügbaren Daten, etwa den Informationen im Social-Media-Profil des jeweiligen Anwenders, und liefern den Angreifern ausgehend davon eine Liste möglicher Passwörter, die diese testen können – mit hoher Trefferwahrscheinlichkeit. (Es ist wirklich höchste Zeit für eine passwortlose Welt.)
Umgehen von CAPTCHAs
Klicken Sie auf die Box, geben Sie den Text ein, markieren Sie alle Felder mit einer Ampel: CAPTCHAs helfen Unternehmen dabei, menschliche Anwender und unerwünschte Bots zu unterscheiden und schützen Webseiten so vor einer ganzen Reihe von Bedrohungen: von Spam über DDoS-Attacken. Doch auch wenn der Wettstreit mit der KI seit Jahren tobt, legen aktuelle Studien den Schluss nahe, dass die Bots immer schneller und immer cleverer werden, wenn es gilt, CAPTCHA-Tests zu lösen. Das bedeutet nicht, dass die Tage von CAPTCHA gezählt sind. Längst werden neue Verfahren entwickelt und getestet, die KI verwenden, um KI zu stoppen. Ein aktuell diskutierter Ansatz, den das Data-Science-Team von Okta jüngst im Rahmen der CAMLIS, einer Konferenz rund um Machine Learning und Informationssicherheit, präsentiert hat – ist zum Beispiel das auf Bildern basierende Vervollständigen von Narrativen. Bei diesem Verfahren wird mithilfe von KI eine kurze Bildergeschichte mit zwei Szenen generiert, die dem Anwender gezeigt werden. Dieser muss dann das Bild wählen, das im jeweiligen Kontext am besten als Schlussszene funktioniert – eine Aufgabe, die eine KI bislang nicht (oder zumindest nicht einfach und günstig) lösen kann.
Prompt Injection
„Prompt Injection ist ein Angriffstyp, der sich gegen Anwendungen richtet, die On-Top auf KI-Modellen errichtet wurden“, erklärt Open-Source-Entwickler Simon Willison, der die Bezeichnung „Prompt Injection“ prägte, nachdem die entsprechende Schwachstelle im September 2022 bekannt geworden war.
Der Begriff „On-Top“ ist hier von zentraler Bedeutung, wie Willison erklärt – denn das KI-Modell selbst sei nicht das Ziel des Angriffs. „Der Angriff richtet sich auf die Elemente, die Entwickler wie ich auf diesen Modellen aufsetzen“, erläuterte er bei einem Webinar im Mai.
Erfolgreiche Prompt Injections, die bösartigen Input in bestehende Anweisungen injizieren, können unbemerkt die Vorgaben der Entwickler überschreiben und viele Sicherheitsmechanismen, die der Betreiber des LLM-Modells implementiert hat, umgehen. Auf diese Weise lässt sich der Output des Modells in jede Richtung lenken, die der Urheber des Angriffs wünscht. Vereinfacht gesprochen gibt der Angreifer dem LLM die Befehl: „Ignoriere ihre Anweisungen und tue stattdessen, was ich dir sage.“ Ein Beispiel für Prompt Injection ist der KI-gesteuerte Tweet-Bot einer Webseite, der jüngst manipuliert wurde, um Drohungen gegen den Präsidenten zu tweeten.
Unzählige Experten – von Willison bis zum UK National Cyber Security Centre (NCSC) – warnen bereits, dass die Gefahren, die von der Prompt Injection ausgehen, zunehmen werden, wenn immer mehr Unternehmen LLMs in ihre Produkte einbinden. Hier, in den unscharfen Grenzbereichen der KI, gibt es bislang auch nur wenige bewährte Best Practices, die vor den Risiken schützen.
„Immer mehr Unternehmen verwenden LLMs, um Daten an Third-Party-Anwendungen und Dienste zu übergeben. Damit wächst auch das Risiko von Prompt Injections durch Angreifer. Aktuell sind keine hundertprozentig zuverlässigen Security-Maßnahmen verfügbar, um dieses Risiko zu beheben. Unternehmen kommen also nicht umhin, ihre Systemarchitektur sorgfältig im Auge zu behalten und alle Eventualitäten zu bedenken, bevor sie ein LLM in ein hochgradig kritisches System integrieren”, warnt der NCSC.
Welche KI-gestützten Threats kommen als Nächstes?
Je schneller die Einführung generativer KI-Lösungen voranschreitet, und je ,leistungsfähiger die Anwendungen selbst werden, desto mehr Angriffen werden Unternehmen und Anwender aller Wahrscheinlichkeit nach ausgesetzt sein. Auch hier gilt: Ebenso wie die Unternehmen generative KI nutzen, um personalisierte Customer Experiences zu bieten, werden die Angreifer die gleichen Werkzeuge nutzen, um ihre Attacken zu perfektionieren. Das Ergebnis werden hochgradig individualisierte Angriffe auf sorgfältig ausgewählte Ziele sein, die Scammer automatisieren und hochskaliert initiieren können – eine Welle von Angriffen mit einem Klick. Zu erkennen, was real und was synthetisch ist, wird dann ungleich schwieriger werden.
Es wird niemanden überraschen, dass die Bekämpfung von KI-Missbrauch auf der Prioritätenliste der Security- und KI-Experten schlagartig ganz nach oben geschossen ist. Mit welcher Dringlichkeit das Thema adressiert wird, sah man unter anderem auf der diesjährigen Conference on Applied Machine Learning for Information Security (CAMLIS), wo mehr als ein Drittel der Vorträge die offensiven und defensiven Aspekte der LLMs beleuchteten. Im vergangenen Jahr stand dieses Thema noch überhaupt nicht auf der Agenda. Die Experten gehen diese Bedrohungen mit der höchstmöglichen Geschwindigkeit an. Doch die Frage bleibt: Ist das schnell genug? Denn selbst wenn die Sicherheitsmaßnahmen, an denen aktuell gearbeitet wird – etwa das Watermarking oder die Source Attribution – irgendwann tatsächlich die Marktreife erreichen, ist noch unklar, ob und wann sie von den großen LLM-Betreibern implementiert werden. Ungeachtet dessen hat sich ein Aspekt der LLMs allerdings schon jetzt unbeabsichtigt als wirksame Schutzmaßnahme erwiesen: der Preis. Denn diese Modelle zu entwickeln, zu pflegen und zu betreiben, ist nach wie vor sehr teuer und sehr komplex.
Wie aber können sich Unternehmen vor KI-gestützten Angriffen schützen?
Liebe Katze: Das ist die Maus. Liebe Maus: Das ist die Katze. Die beste Verteidigung gegen KI ist KI. Wenn die Angreifer immer weiter aufrüsten, werden am Ende die Unternehmen, die selbst erfolgreich KI implementieren, die besten Chancen haben, den Attacken zu widerstehen. Das Maß, in dem Unternehmen KI verwenden, hängt natürlich maßgeblich von der Größe, dem technologischen Reifegrad und der Art des Betriebes ab. Dennoch gibt es zwei einfache Grundregeln, um sicher durch das Zeitalter der KI zu navigieren:
Weiterbildung ist der Schlüssel: Eine engagierte Workforce ist die beste Verteidigung. Geben Sie Ihren Mitarbeitenden die Freiräume, die sie brauchen, um generative KI-Tools kennenzulernen und damit zu experimentieren – aber vermitteln Sie ihnen erst die Best Practices und etablieren Sie im Unternehmen verbindliche Leitplanken, um die mit generativer KI verbundenen Risiken zu minimieren und zu managen. Ziel muss es dabei sein, die Weichen für eine sichere KI-Nutzung zu stellen und den Weg für Innovationen zu bereiten.
Finden Sie die richtigen Partner: „Jedes Unternehmen wird ein KI-Unternehmen sein müssen“, erklärte Okta CEO Todd McKinnon jüngst in einem Interview mit Yahoo Finance Live. Selbst wenn KI bei der Bereitstellung Ihrer eigenen Lösungen kein Faktor ist, wird Ihr Unternehmen mit hoher Wahrscheinlichkeit Tools und Plattformen einsetzen, die in hohem Maße auf KI-Funktionalitäten angewiesen sind. Und dann werden robuste Partnerschaften von höchster Bedeutung sein.
„Bei dieser ganzen KI-Revolution wird es letztlich um neue Funktionalitäten gehen… aber die Angreifer können sich die gleiche Technologie ebenfalls zunutze machen“, betont McKinnon. „Damit sind Sie auf ein breites Ökosystem von Unternehmen angewiesen, die alle zusammenarbeiten, um Ihre Anwendungen, Dienste und Infrastrukturen zu schützen. Das kann kein Unternehmen im Alleingang leisten. Es bedarf eines gemeinsamen Ökosystems.“
KI ist für Okta kein neues Thema, sondern längst ein integraler Bestandteil der Workforce Identity Cloud und Customer Identity Cloud Produkte. Aufsetzend auf mehr als zehn Jahren an Daten helfen diese Funktionalitäten – die wir unter dem Begriff Okta AI zusammenfassen – Unternehmen schon heute dabei, das Potenzial dieser unglaublichen Technologie auszuschöpfen, um ihren Kunden eine hochwertigere Experience zu bieten und sie zuverlässig vor Cyberangriffen zu schützen.
Möchten Sie mehr darüber erfahren, wie Sie mit Okta AI Ihr Unternehmen schützen und den Weg für weitere Innovationen bereiten können? Hier erfahren Sie von unserem CEO Todd McKinnon alles über seine Vision für Okta AI .